Rozprawy doktorskie na temat „Apprentissage de la représentation graphique”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Apprentissage de la représentation graphique.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Apprentissage de la représentation graphique”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066042/document.

Pełny tekst źródła
Streszczenie:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
Style APA, Harvard, Vancouver, ISO itp.
2

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066042.

Pełny tekst źródła
Streszczenie:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
Style APA, Harvard, Vancouver, ISO itp.
3

Pudelko, Béatrice. "Étude microgénétique des médiations épistémiques d'un outil informatisé de représentation graphique des connaissances au cours d'une activité de compréhension de texte : propositions pour une approche instrumentale étendue des médiations des outils cognitifs dans l'apprentissage". Paris 8, 2006. http://www.theses.fr/2006PA082303.

Pełny tekst źródła
Streszczenie:
Cette recherche porte sur les apports des outils informatisés de construction de cartes conceptuelles à la compréhension de textes dans un contexte de formation universitaire « virtuelle ». Notre cadre théorique constitue une analyse conceptuelle de la notion de médiation des outils cognitifs dans l’apprentissage dans les recherches réalisées dans l’approche instrumentale de Vygotski. Nous développons le concept de médiation pragmatique et d’habileté cognitive à la lumière de la théorie de Rabardel (1995) et celle de Piaget. Pour concevoir les médiations épistémiques, nous réalisons une analyse développementale du concept de médiation dans la théorie de Vygotski. Cette analyse démontre la cohérence interne de sa théorie matérialiste et dialectique de la médiation de la conscience et l’importance de son hypothèse du langage intérieur. Pour décrire les médiations épistémiques nous mettons à contribution les propositions de Piaget et de Vygotski concernant l’acte de conceptualisation. Nous mettons à l’épreuve nos propositions théoriques et méthodologiques dans une étude microgénétique de construction de cartes conceptuelles avec le logiciel MOT par les étudiants d’un cours dispensé par l’internet à la Télé-université (Montréal). Le recueil de données consiste en enregistrement vidéo de l’activité et en verbalisation consécutive. Nous mettons en évidence les transformations de la structure de l’activité externe et de l’activité interne induites par cet outil, les difficultés des étudiants à restructurer les significations immédiates et la dialectique entre les formes et les contenus des significations des mots du texte et des propriétés représentationnelles de l’outil
This research investigates the impact of using a computer-based concept mapping tool on text understanding in the context of distance learning in higher education. To explore this issue, we first review research on learning with mindtools and symbolic external representations. Our theoretical framework is based on a deep analysis of the concepts of pragmatic mediation and of cognitive skills based on Rabardel’s (1995) theory of instrument-mediated activity and the works of Piaget. To define the notion of epistemic mediation, we conducted a historical analysis of the concept of mediation in Vygotsky’s socio-historical theory. This analysis shows the internal coherence of his materialistic and dialectical theory of mediation of consciousness and the importance of his hypothesis of private speech in psychological research on conceptual thinking. We also consider Piaget’s position on the act of conceptualisation. With this framework, we conducted a microgenetic study of the concept mapping activity of students registered in an online course at Télé-université (Montréal) using a knowledge modeling tool (MOT). We videotaped the students’ activity and their consecutive verbal reports. Data shows the transformations of the external and internal activity structures induced by the use of the tool. The students’ difficulties to restructure the immediate meanings are clear in the analysis. Finally, dialectics exist between the form and the content of the text and the representational properties of the tool
Style APA, Harvard, Vancouver, ISO itp.
4

Moreno, Gordillo Julio Antonio. "Articulation des registres graphique et symbolique pour l'étude des équations différentielles avec Cabri géomètre : analyse des difficultés des étudiants et du rôle du logiciel". Grenoble 1, 2006. http://www.theses.fr/2006GRE10046.

Pełny tekst źródła
Streszczenie:
L'enseignement des équations différentielles privilégie l'approche algébrique, malgré l'existence des approches numérique et qualitative. Dans l'approche algébrique le lien entre les registres symbolique et graphique est indirect: il passe par l'expression symbolique des solutions. En revanche, 1 mise en relation directe de ces registres requiert la mobilisation de connaissances de divers cadres: fonctions, géométrie analytique, analyse, etc. Elle nécessite des raisonnements sur des fonctions dont on ne connaît pas l'expression symbolique. Les efforts actuels pour changer le paradigme algébriqu dominant font appel aux outils informatiques. Or, des logiciels comme Cabri Géomètre permettent de créer des contextes d'exploration de phénomène~ graphiques liés aux équations différentielles. Nous étudions ici les difficultés des étudiants de CAPES pour construire des liens entre les registres graphique et symbolique, ainsi que les apports du logiciel pour développer ces liens. Au chapitre 1, nous passons en revue quelques travaux de référence. A l'aide de certains outils théoriques, nous clarifions la problématique pour articuler ces registres. Puis, nous étudions les potentialités du logiciel pour l'étude des équations différentielles. Au chapitre 2, nous présentons le dispositif expérimental conçu pour vérifier nos hypothèses. Nous dédions ensuite deux chapitres à l'étude des expériences réalisées. Au chapitre 5, nous tirons un bilan de ces expériences et nous montrons les difficultés rencontrées par les étudiants, ainsi que les apports du logiciel. En conclusion nous revenons sur les questions initiales, et sur les éléments de réponse et les perspectives de notre travail
The teaching of the differential equations privileges the aigebraic approach, in spite of the existence of the numericai and qualitative approaches. Ln the algebraic approach, the link between the symbolic and the graphic registers is indirect: it passes by the symbolic expression of the solutions. On the other hand, making the direct connection between these registers requires the mobilization ofknowledge ofvarious frameworks: functions, analytical geometry, analysis, etc. It requires reasoning on functions which one does not know the symbolic expression. The CUITent efforts to change the dominating algebraic paradigm cali upon the new technology tools. However, software programs as CABRI Géomètre allow creating contexts of browsing of graphic phenomena related to differential equations. Here we study the difficulties of CAPES 'students building links between the graphic and the symbolic registers, as weil as the contribution of the software in helping to develop these links. Ln chapter l, we review sorne reference works. Using certain theoretical tools, we clarify the problematic to articulate these registers. Then, we study the potentialities of the software in the study of differential equations. Ln chapter 2, we present the experimental device designed to check our hypotheses. We dedicate then two chapters to the study 0 the experiments carried out. Ln chapter 5, we draw an assessment from these experiments and we show the difficulties students found, as weil as the contributions of the software. Ln the conclusions, we reconsider the initial questions and the elements ofresponse, and the prospects for our work
Style APA, Harvard, Vancouver, ISO itp.
5

Jagtap, Surabhi. "Multilayer Graph Embeddings for Omics Data Integration in Bioinformatics". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST014.

Pełny tekst źródła
Streszczenie:
Les systèmes biologiques sont composés de biomolécules en interaction à différents niveaux moléculaires. D’un côté, les avancées technologiques ont facilité l’obtention des données omiques à ces divers niveaux. De l’autre, de nombreuses questions se posent, pour donner du sens et élucider les interactions importantes dans le flux d’informations complexes porté par cette énorme variété et quantité des données multi-omiques. Les réponses les plus satisfaisantes seront celles qui permettront de dévoiler les mécanismes sous-jacents à la condition biologique d’intérêt. On s’attend souvent à ce que l’intégration de différents types de données omiques permette de mettre en lumière les changements causaux potentiels qui conduisent à un phénotype spécifique ou à des traitements ciblés. Avec les avancées récentes de la science des réseaux, nous avons choisi de traiter ce problème d’intégration en représentant les données omiques à travers les graphes. Dans cette thèse, nous avons développé trois modèles à savoir BraneExp, BraneNet et BraneMF pour l’apprentissage d’intégrations de noeuds à partir de réseaux biologiques multicouches générés à partir de données omiques. Notre objectif est de résoudre divers problèmes complexes liés à l’intégration de données multiomiques, en développant des méthodes expressives et évolutives capables de tirer parti de la riche sémantique structurelle latente des réseaux du monde réel
Biological systems are composed of interacting bio-molecules at different molecular levels. With the advent of high-throughput technologies, omics data at their respective molecular level can be easily obtained. These huge, complex multi-omics data can be useful to provide insights into the flow of information at multiple levels, unraveling the mechanisms underlying the biological condition of interest. Integration of different omics data types is often expected to elucidate potential causative changes that lead to specific phenotypes, or targeted treatments. With the recent advances in network science, we choose to handle this integration issue by representing omics data through networks. In this thesis, we have developed three models, namely BraneExp, BraneNet, and BraneMF, for learning node embeddings from multilayer biological networks generated with omics data. We aim to tackle various challenging problems arising in multi-omics data integration, developing expressive and scalable methods capable of leveraging rich structural semantics of realworld networks
Style APA, Harvard, Vancouver, ISO itp.
6

Segalerba, Maria Guadalupe. "Métalangage et représentation graphique comme manifestations de la représentation mentale de la musique". Paris 4, 2005. http://www.theses.fr/2005PA040113.

Pełny tekst źródła
Streszczenie:
Notre propos est ici d'observer les représentations graphiques et verbales d'une mélodie en tant que manifestations de leur représentation mentale : ces représentations sont utilisées comme autant d'outils nous permettant d'y déceler les indices d'un processus cognitif. L'apprentissage de la notation mélodique est étudié dans deux situations éducatives différentes : au sein de l'enseignement musical général et dans une école de musique. Chez les enfants non musiciens, le métalangage s'inscrit comme complément des représentations graphiques spontanées d'une pièce musicale brève. Nous caractérisons son degré d'inscription dans la temporalité. Chez les enfants musiciens, le métalangage est considéré comme un médiateur permettant la résolution plus aisée des tâches liées à l'apprentissage musical. Nous développons l'idée que l'existence d'une attitude réflexive, au sein d'un processus cognitif qui prend appui sur sa représentation verbale (métalangage), permet d'améliorer la réussite de la tâche de notation musicale, facilitant ainsi le passage d'un premier mode de la connaissance musicale, celui de l'exécution vocale, à celui de la représentation graphique
Our purpose is here to observe the verbal & graphical representations of a melody as the image of its mental representation: verbal & graphical representations of the melody are considered here as tools enabling us to detect the evidence of a cognitive process. The teaching of the melody notation is studied in two different educational situations: within general musical teaching and in a music school. With not-musicians children, meta-language should be considered as a complement of the spontaneous graphical expressions that emerge following a short musical piece. We will characterize the degree of inscription in temporality of these spontaneous graphical expressions. With children of music schools, such a meta-language is considered as a mediator allowing an easier resolution of the tasks required by musical teaching. We therefore develop the idea that the existence of such a mental representation of the melody, which takes support on a verbal representation (meta-language), improves the efficiency of the teaching of musical notation. This process facilitates the transition of a primary mode of musical knowledge, (vocal execution) to a graphical representation of the music
Style APA, Harvard, Vancouver, ISO itp.
7

Bigot, Damien. "Représentation et apprentissage de préférences". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30031/document.

Pełny tekst źródła
Streszczenie:
La modélisation des préférences par le biais de formalismes de représentation compacte fait l'objet de travaux soutenus en intelligence artificielle depuis plus d'une quinzaine d'années. Ces formalismes permettent l'expression de modèles suffisamment flexibles et riches pour décrire des comportements de décision complexes. Pour être intéressants en pratique, ces formalismes doivent de plus permettre l'élicitation des préférences de l'utilisateur, et ce en restant à un niveau admissible d'interaction. La configuration de produits combinatoires dans sa version business to customer et la recherche à base de préférences constituent de bons exemples de ce type de problème de décision où les préférences de l'utilisateur ne sont pas connues a priori. Dans un premier temps, nous nous sommes penchés sur l'apprentissage de GAI-décompositions. Nous verrons qu'il est possible d'apprendre une telle représentation en temps polynomial en passant par un système d'inéquations linéaires. Dans un second temps, nous proposerons une version probabiliste des CP-nets permettant la représentation de préférences multi-utilisateurs afin de réduire le temps nécessaire à l'apprentissage des préférences d'un utilisateur. Nous étudierons les différentes requêtes que l'on peut utiliser avec une telle représentation, puis nous nous pencherons sur la complexité de ces requêtes. Enfin, nous verrons comment apprendre ce nouveau formalisme, soit grâce à un apprentissage hors ligne à partir d'un ensemble d'objets optimaux, soit grâce à un apprentissage en ligne à partir d'un ensemble de questions posées à l'utilisateur
--
Style APA, Harvard, Vancouver, ISO itp.
8

Fiori, Sandra. "Le représentation graphique dans la conception du projet d'éclairage urbain". Phd thesis, Université de Nantes, 2001. http://tel.archives-ouvertes.fr/tel-00399027.

Pełny tekst źródła
Streszczenie:
Par ses implications cognitives et pragmatiques, la représentation graphique constitue un outil privilégié du projet architectural et urbain par lequel se manifestent et opèrent les manières de faire. Partant de cette hypothèse méthodologique, cette recherche tente de mieux définir le renouvellement des modes de production et de pensée de l'éclairage urbain à travers l'étude des usages de la représentation graphique chez les concepteurs lumière, principaux acteurs de ce renouveau issus de milieux professionnels divers. Trois types de sources sont utilisés : observation du travail d'agence, entretiens semi-directifs et surtout corpus graphique extrait de vingt projets (mises en lumière urbaines, plans lumière), analysé sur un mode monographique puis typologique. Les entretiens révèlent une démarche commune de type scénographique ainsi que l'importance du mouvement d'acculturation à la maîtrise d'oeuvre traditionnelle par lequel se construit la nouvelle profession de concepteur lumière. La production graphique des concepteurs lumière reflète largement ces caractéristiques, tirant sa spécificité d'un processus d'hybridation entre les formes graphiques de l'éclairagisme technique et celles du projet architectural et urbain, comme le montre l'analyse typologique du corpus. Plus largement, l'analyse graphique met en évidence le caractère actuel (Cauquelin, 1992), c'est-à-dire à la fois traditionnel et contemporain, des pratiques des concepteurs lumière. Cette actualité, questionnant les modes d'appréhension courant du projet architectural et urbain, a ainsi trait : - à leur champ de compétence et d'intervention, ni tout à fait technique ni tout à fait artistique, témoignant en outre d'une hybridation entre disciplines ; - sur le plan graphique, à leur usage de techniques mixtes et au brouillage de la frontière entre conception et communication ; - sur le plan esthétique, au mélange entre retour aux origines de la scénographie et création de dispositifs spatio-lumineux inédits.
Style APA, Harvard, Vancouver, ISO itp.
9

Parent, Marc Philippe. "Un formalisme graphique de représentation de contraintes sémantiques pour UML". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25276/25276.pdf.

Pełny tekst źródła
Streszczenie:
L’utilisation à grande échelle de UML dans l’industrie informatique est en train d’en faire une norme incontournable pour toute activité de modélisation conceptuelle requise par l’informatisation de systèmes d’information. Toutefois, UML a ses limites. En effet, l’expression de contraintes sémantiques se fait par OCL (Object Constraint Language), un langage basé sur la logique des prédicats du premier ordre. Les avantages d’avoir un formalisme formel, simple et graphique se perdent donc lorsque les contraintes associées au domaine doivent être décrites soit sous une forme textuelle, soit en logique des prédicats du 1er ordre. La méthodologie envisagée consiste donc en l’élaboration d’un formalisme graphique d’expression de contrainte de telle sorte que les contraintes ainsi exprimées puissent être automatiquement transformées en OCL. Les contraintes OCL peuvent alors être vérifiées afin qu’elles soient toutes satisfaites et qu’elles évitent l’introduction d'incohérence dans les données. Dans ce cas, le modélisateur pourra en être averti et pourra ajuster le modèle ou valider l’acquisition de données. Éventuellement, nous visons à ce que ces contraintes puissent s'assurer que la génération du code en tienne compte, d’où leur possible intégration à un outil de modélisation et de génération de code (outil CASE).
Style APA, Harvard, Vancouver, ISO itp.
10

Achouri, Abdelghani. "Extraction de relations d'associations maximales dans les textes : représentation graphique". Thèse, Université du Québec à Trois-Rivières, 2012. http://depot-e.uqtr.ca/6132/1/030374207.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
11

Tomasini, Linda. "Apprentissage d'une représentation statistique et topologique d'un environnement". Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0024.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur l'apprentissage d'une représentation d'un environnement par un réseau de neurones. L’algorithme d'apprentissage non supervisé que nous proposons est basé sur l'identification d'un mélange de gaussiennes et est mis en œuvre sur une carte topologique du type de celles de Kohonen. Une relation formelle est établie avec les algorithmes de classification automatique floue. Nous traitons ensuite deux applications directes de cet algorithme à la vision artificielle: en segmentation d'images par analyse de texture et en imagerie médicale pour la visualisation de données tomographiques de débit sanguin cérébral. Dans la dernière partie, deux architectures hybrides sont définies dans les buts d'apprendre, respectivement, une suite récurrente et les corrélations entre deux variables représentées sur deux cartes topologiques. Dans les deux cas, l'apprentissage fait coopérer l'algorithme précédent de classification automatique avec une règle d'apprentissage supervisée.
Style APA, Harvard, Vancouver, ISO itp.
12

Chabiron, Olivier. "Apprentissage d'arbres de convolutions pour la représentation parcimonieuse". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30213/document.

Pełny tekst źródła
Streszczenie:
Le domaine de l'apprentissage de dictionnaire est le sujet d'attentions croissantes durant cette dernière décennie. L'apprentissage de dictionnaire est une approche adaptative de la représentation parcimonieuse de données. Les méthodes qui constituent l'état de l'art en DL donnent d'excellentes performances en approximation et débruitage. Cependant, la complexité calculatoire associée à ces méthodes restreint leur utilisation à de toutes petites images ou "patchs". Par conséquent, il n'est pas possible d'utiliser l'apprentissage de dictionnaire pour des applications impliquant de grandes images, telles que des images de télédétection. Dans cette thèse, nous proposons et étudions un modèle original d'apprentissage de dictionnaire, combinant une méthode de décomposition des images par convolution et des structures d'arbres de convolution pour les dictionnaires. Ce modèle a pour but de fournir des algorithmes efficaces pour traiter de grandes images, sans les décomposer en patchs. Dans la première partie, nous étudions comment optimiser une composition de convolutions de noyaux parcimonieux, un problème de factorisation matricielle non convexe. Ce modèle est alors utilisé pour construire des atomes de dictionnaire. Dans la seconde partie, nous proposons une structure de dictionnaire basée sur des arbres de convolution, ainsi qu'un algorithme de mise à jour de dictionnaire adapté à cette structure. Enfin, une étape de décomposition parcimonieuse est ajoutée à cet algorithme dans la dernière partie. À chaque étape de développement de la méthode, des expériences numériques donnent un aperçu de ses capacités d'approximation
The dictionary learning problem has received increasing attention for the last ten years. DL is an adaptive approach for sparse data representation. Many state-of-the-art DL methods provide good performances for problems such as approximation, denoising and inverse problems. However, their numerical complexity restricts their use to small image patches. Thus, dictionary learning does not capture large features and is not a viable option for many applications handling large images, such as those encountered in remote sensing. In this thesis, we propose and study a new model for dictionary learning, combining convolutional sparse coding and dictionaries defined by convolutional tree structures. The aim of this model is to provide efficient algorithms for large images, avoiding the decomposition of these images into patches. In the first part, we study the optimization of a composition of convolutions with sparse kernels, to reach a target atom (such as a cosine, wavelet or curvelet). This is a non-convex matrix factorization problem. We propose a resolution method based on a Gaus-Seidel scheme, which produces good approximations of target atoms and whose complexity is linear with respect to the image size. Moreover, numerical experiments show that it is possible to find a global minimum. In the second part, we introduce a dictionary structure based on convolutional trees. We propose a dictionary update algorithm adapted to this structure and which complexity remains linear with respect to the image size. Finally, a sparse coding step is added to the algorithm in the last part. For each evolution of the proposed method, we illustrate its approximation abilities with numerical experiments
Style APA, Harvard, Vancouver, ISO itp.
13

Roman, Marie-Laure. "Le dessin d'enfant, un malentendu graphique ? : Logique de la représentation et processus de subjectivation". Montpellier 3, 2005. http://www.theses.fr/2005MON30021.

Pełny tekst źródła
Streszczenie:
Dans une psychothérapie, le dessin figure la mise en scène d'une représentation inconsciente mobilisée par le trait unaire. L'enfant, par tâtonnements successifs, l'utilise pour construire puis déconstruire, les représentations qui l'habitent et qui se dialectisent dans la demande supposée de l'Autre. Par l'effet de sens qu'il suscite et les paroles qui le questionnent, le dessin s'inscrit comme support d'une subversion subjectivante. Lorsque l'environnement s'avère défaillant, le processus de subjectivation en est altéré. L'enfant est alors dans l'impossibilité de symboliser les images qui l'habitent comme support du désir de l'Autre. Le risque en est l'impossible dialectisation entre moi-idéal et idéal du moi. Engagé dans les processus transférentiels, l'enfant représente ce qui fait stase pour lui, ce qu'il ne peut intégrer à la pensée, donc au langage. Par là même, la cure sera le lieu de la relance du processus de subjectivation. Du symptôme au sinthome, l'enfant accède ainsi au premier jugement d'existence, il s'auteurise
In a psychotherapy, drawing pictures the sketch of an inconscious representation mobilised by the “trait unaire” (Lacan). The child, though successive tentative efforts, uses it to build up then unbuild the representations which fill him, and turn into dialectisation in the supposed request of the Other One. Through the effort of sense which he arouses, and the words that make him ask questions, drawing inscribes itself as the support of subversion that develops subjectivity. When the surrounding prove to be failing, the process of becoming a person is therefore adulterated. The child is then unable to symbolize the pictures which fill him as support oh the Other One's desire. The risle lies in the impossible dialectisation between the ideal ego and the ego ideal. Involved in transference processes the child reproduces what creates a stasis according to him, and which he can't integrate into though, therefore into language. From what has just been said, the treatment will be the place for starting again the process of becoming a subject. From the symptom to the “sinthome” (J. Lacan) the child thus the expression of his first thought of existence, he becomes his own author
Style APA, Harvard, Vancouver, ISO itp.
14

Maton, Éric. "Représentation graphique et pensée managériales : le cas de la Harvard Business Review de 1922 à 1999". Palaiseau, Ecole polytechnique, 2007. https://pastel.archives-ouvertes.fr/pastel-00003632.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
15

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
Style APA, Harvard, Vancouver, ISO itp.
16

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs". Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066040.pdf.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
Style APA, Harvard, Vancouver, ISO itp.
17

LERCH, CHRISTOPHE. "Une nouvelle représentation du contrôle organisationnel : le pilotage des processus". Université Louis Pasteur (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR1EC01.

Pełny tekst źródła
Streszczenie:
La crise de l'instrumentation de gestion apparue au debut des annees 80 peut etre interpretee comme une crise des modes de representation de l'organisation. Cette these propose en reponse une reflexion sur le controle organisationnel a partir d'une modelisation a base d'activites. En premier lieu, l'analyse porte sur la construction de representations graphiques, modelisant de maniere specifique le comportement des activites reelles d'une organisation. Notre etude identifie certaines limites des outils de modelisation fonctionnels les plus couramment employes, et propose des solutions palliatives fondees sur une modelisation cognitive de l'activite. En second lieu, nous developpons une typologie qui permet d'analyser la diversite des processus a l'aide de trois ideotypes : les processus structures, les processus semi-structures et les processus non- structures. Ces configurations se distinguent notamment par leur strategie d'adaptation a l'environnement et leur structure de pilotage. Cette conceptualisation constitue un langage visant a faciliter la realisation d'un diagnostic sur le fonctionnement des processus. Notre recherche aboutit a la construction d'un tableau de bord dont le but est d'inflechir les mecanismes collectifs d'adaptation et de creation des connaissances des processus. Nous mettons en evidence a la fois des leviers d'action qui agissent sur ces mecanismes et les risques potentiels de blocages de la dynamique d'apprentissage inherents a leur utilisation. Finalement, le controle des processus apparait comme un moyen de mobiliser l'attention cognitive des operateurs vers l'exploration des savoirs de comprehension portant sur des problemes mal elucides ayant une importance strategique pour l'organisation. Il permet en contre-partie d'economiser l'attention des membres de l'organisation en optant pour l'exploitation des connaissances factuelles et des savoir-faire techniques portant sur des problemes de moindre importance ou deja bien elucides
The crisis of management instrumentation wich appeared in the 80's can be interpreted as a crisis of the representation modes of organization. Therfore this thesis offers some thoughts on the type of organization aimed at controlling, starting from a model based an activities. First, we use graphical representations in order to model the activities of organisations in applied cases. Our analysis identifies some limits the functional tools which are most frequently used. We then suggest some solutions by resorting to a cognitive representation of the activities. Secondly, we develop a typology which structures the diversity of the processes. We distinguish three categories : the structured process, the semi-structured process, the non structured process. Those configurations can in particular be differentiated by their strategies of environmental adaptation and their structure of management. The objective to provide a language so as to facilitate the diagnosis on the functioning of the processes. Our study resulted in devising a dashboard intended to drive the collective mechanisms of adaptation and knowledge creation. Our analysis emphasises both the parameters of control of these mechanisms and the impact of those parameters on the dynamic of the learning processes. Finally, managing the processes appears to be a way to mobilise the cognitive attention of the actors of the organisation. The point is especially important when the operators have to solve radically new problems of strategic importance for the organisation and thus need to explore new. Fields of knowledge. Conversely, managing the processes helps to save the cognitive resources of the organisation in situations where the members have to solve well-defined and well-known problems by exploiting available and explicit knowledge
Style APA, Harvard, Vancouver, ISO itp.
18

Maton, Eric. "Représentation graphique et pensée managériale, le cas de la Harvard Business Review de 1922 à 1999". Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00003632.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'effectuer une analyse de l'histoire de la gestion, de 1922 à 1999, au travers des représentations graphiques. Nous avons choisi la Harvard Business Review en raison de sa parution particulièrement précoce, de la représentativité qu'elle donne des principaux courants de recherche enseignés et de l'intérêt apporté aux graphiques. Partant d'une interrogation relative aux graphiques en tant que langage, nous élaborons une classification de plusieurs formes graphiques : les diagrammes, les schémas, les cartes et les représentations à l'échelle d'objets. Cette analyse nous amène à caractériser les dessins selon des dimensions fonctionnelle et structurelle. Nous tenons compte, parallèlement, des concepts mobilisés dans les représentations. Cette analyse permet d'observer certaines évolutions historiques de la gestion perceptibles dans la Harvard Business Review, ainsi que deux ruptures intervenues à la fin des années 1950 et au début des années 1980. Notre étude porte également sur les textes accompagnant les graphiques au travers de quatre études de cas concernant les graphiques de relations au sein de l'organisation, les schémas réflexion-action, les dessins reflétant des métaphores et enfin les matrices 2*2 possédant des éléments graphiques. Cette analyse, mettant notamment en jeu le concept de « rationalisation » et la notion de « technique managériale », indique une remise en cause tardive des principes du management scientifique de Taylor et vient renforcer l'idée d'une rupture au début des années 1980.
Style APA, Harvard, Vancouver, ISO itp.
19

Scherrer, Bruno. "Apprentissage de représentation et auto-organisation modulaire pour un agent autonome". Phd thesis, Université Henri Poincaré - Nancy I, 2003. http://tel.archives-ouvertes.fr/tel-00003377.

Pełny tekst źródła
Streszczenie:
Cette thèse étudie l'utilisation d'algorithmes connexionnistes pour résoudre des problèmes d'apprentissage par renforcement. Les algorithmes connexionnistes sont inspirés de la manière dont le cerveau traite l'information : ils impliquent un grand nombre d'unités simples fortement interconnectées, manipulant des informations numériques de manière distribuée et massivement parallèle. L'apprentissage par renforcement est une théorie computationnelle qui permet de décrire l'interaction entre un agent et un environnement : elle permet de formaliser précisément le problème consistant à atteindre un certain nombre de buts via l'interaction.

Nous avons considéré trois problèmes de complexité croissante et montré qu'ils admettaient des solutions algorithmiques connexionnistes : 1) L'apprentissage par renforcement dans un petit espace d'états : nous nous appuyons sur un algorithme de la littérature pour construire un réseau connexionniste ; les paramètres du problème sont stockés par les poids des unités et des connexions et le calcul du plan est le résultat d'une activité distribuée dans le réseau. 2) L'apprentissage d'une représentation pour approximer un problème d'apprentissage par renforcement ayant un grand espace d'états : nous automatisons le procédé consistant à construire une partition de l'espace d'états pour approximer un problème de grande taille. 3) L'auto-organisation en modules spécialisés pour approximer plusieurs problèmes d'apprentissage par renforcement ayant un grand espace d'états : nous proposons d'exploiter le principe "diviser pour régner" et montrons comment plusieurs tâches peuvent être réparties efficacement sur un petit nombre de modules fonctionnels spécialisés.
Style APA, Harvard, Vancouver, ISO itp.
20

Delteil, Alexandre. "Représentation et apprentissage de concepts et d'ontologies pour le web sémantique". Nice, 2002. http://www.theses.fr/2002NICE5786.

Pełny tekst źródła
Streszczenie:
Nous présentons dans cette thèse des langages de représentation des connaissances pour le Web Sémantique, dans l'objectif de fournir une expressivité supérieure aux formalismes actuels comme RDF(S). Le premier langage est une extension de RDF(S) fondée sur les Graphes Conceptuels Simples. Le deuxième langage, GDL, intègre à la fois les caractéristiques des Graphes Conceptuels (GCs) et des Logiques de Description (LDs). Par rapport aux GCs, ce langage peut être vu comme la clôture des GCs sous les opérateurs booléens. Par rapport aux LDs, GDL peut être vu comme la généralisation de ALC permettant de définir n'importe quel motif graphique dans les définitions de concepts. Dans l'objectif de mettre à jour et enrichir les ontologies, nous proposons un algorithme incrémental d'apprentissage de concepts et d'ontologie pour le Web Sémantique. Notre algorithme classe les objets d'une façon systématique selon les motifs relationnels qui les décrivent.
Style APA, Harvard, Vancouver, ISO itp.
21

Do, Thanh Ha. "Sparse representations over learned dictionary for document analysis". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0021/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous concentrons sur comment les représentations parcimonieuses peuvent aider à augmenter les performances pour réduire le bruit, extraire des régions de texte, reconnaissance des formes et localiser des symboles dans des documents graphiques. Pour ce faire, tout d'abord, nous donnons une synthèse des représentations parcimonieuses et ses applications en traitement d'images. Ensuite, nous présentons notre motivation pour l'utilisation de dictionnaires d'apprentissage avec des algorithmes efficaces pour les construire. Après avoir décrit l'idée générale des représentations parcimonieuses et du dictionnaire d'apprentissage, nous présentons nos contributions dans le domaine de la reconnaissance de symboles et du traitement des documents en les comparants aux travaux de l'état de l'art. Ces contributions s'emploient à répondre aux questions suivantes: La première question est comment nous pouvons supprimer le bruit des images où il n'existe aucune hypothèse sur le modèle de bruit sous-jacent à ces images ? La deuxième question est comment les représentations parcimonieuses sur le dictionnaire d'apprentissage peuvent être adaptées pour séparer le texte du graphique dans des documents? La troisième question est comment nous pouvons appliquer la représentation parcimonieuse à reconnaissance de symboles? Nous complétons cette thèse en proposant une approche de localisation de symboles dans les documents graphiques qui utilise les représentations parcimonieuses pour coder un vocabulaire visuel
In this thesis, we focus on how sparse representations can help to increase the performance of noise removal, text region extraction, pattern recognition and spotting symbols in graphical documents. To do that, first of all, we give a survey of sparse representations and its applications in image processing. Then, we present the motivation of building learning dictionary and efficient algorithms for constructing a learning dictionary. After describing the general idea of sparse representations and learned dictionary, we bring some contributions in the field of symbol recognition and document processing that achieve better performances compared to the state-of-the-art. These contributions begin by finding the answers to the following questions. The first question is how we can remove the noise of a document when we have no assumptions about the model of noise found in these images? The second question is how sparse representations over learned dictionary can separate the text/graphic parts in the graphical document? The third question is how we can apply the sparse representation for symbol recognition? We complete this thesis by proposing an approach of spotting symbols that use sparse representations for the coding of a visual vocabulary
Style APA, Harvard, Vancouver, ISO itp.
22

Aldea, Emanuel. "Apprentissage de données structurées pour l'interprétation d'images". Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0053.

Pełny tekst źródła
Streszczenie:
La plupart des méthodes de classification d’images s'appuient en premier lieu sur les attributs des objets d'intérêt. Cependant, les informations spatiales liées aux relations entre ces objets sont également utiles, comme cela a été montré en segmentation et reconnaissance de structures dans les images, et leur intégration dans des méthodes d'apprentissage et de classification commence à apparaître et évoluer. Les modélisations floues permettent de représenter à la fois l'imprécision de la relation et le passage graduel de la satisfaction à la non satisfaction de cette relation. L'objectif de ce travail est d'explorer les techniques de représentation de l’information spatiale et leur intégration dans les classifieurs d'images qui utilisent les noyaux de graphes. Nous justifions le choix de graphes étiquetés pour représenter les images dans le contexte de l'apprentissage SVM, ainsi que les adaptations nécessaires par rapport aux domaines connexes. A partir des mesures d’adjacence floues entre les objets d'intérêt, nous définissons une famille de représentations de graphes déterminés par des seuils différents appliqués à ces mesures spatiales. Enfin, nous employons plusieurs noyaux dans un apprentissage multiple afin de mettre en place des classifieurs qui peuvent tenir compte des différentes représentations graphiques de la même image à la fois. Les résultats montrent que l'information spatiale complète les caractéristiques visuelles des éléments distinctifs dans les images et que l'adaptation des fonctions noyau pour les représentations spatiales floues est bénéfique en termes de performances
Image interpretation methods use primarily the visual features of low-level or high-level interest elements. However, spatial information concerning the relative positioning of these elements is equally beneficial, as it has been shown previously in segmentation and structure recognition. Fuzzy representations permit to assess at the same time the imprecision degree of a relation and the gradual transition between the satisfiability and the non-satisfiability of a relation. The objective of this work is to explore techniques of spatial information representation and their integration in the learning process, within the context of image classifiers that make use of graph kernels. We motivate our choice of labeled graphs for representing images, in the context of learning with SVM classifiers. Graph kernels have been studied intensively in computational chemistry and biology, but an adaptation for image related graphs is necessary, since image structures and properties of the information encoded in the labeling are fundamentally different. We illustrate the integration of spatial information within the graphical model by considering fuzzy adjacency measures between interest elements, and we define a family of graph representations determined by different thresholds applied to these spatial measures. Finally, we employ multiple kernel learning in order to build up classifiers that can take into account different graphical representations of the same image at once. Results show that spatial information complements the visual features of distinctive elements in images and that adapting the discriminative kernel functions for the fuzzy spatial representations is beneficial in terms of performance
Style APA, Harvard, Vancouver, ISO itp.
23

Fusty-Raynaud, Sylvie. "Apprentissage et dysfonctionnement du langage écrit et représentation motrice de la parole". Paris 8, 2007. http://octaviana.fr/document/145514919#?c=0&m=0&s=0&cv=0.

Pełny tekst źródła
Streszczenie:
Les travaux sur le lecteur expert, l'apprentissage de la lecture et ses dysfonctionnements ne conduisent ni à une définition homogène des sujets dyslexiques ni à une méthodologie cohérente de remédiation. Cette thèse propose d'analyser les problèmes d'apprentissage de la lecture sous un angle nouveau. Plutôt que de considérer le comportement du lecteur expert, elle examine les contraintes que le système alphabétique impose au sujet apprenant et les ressources qu'il mobilise en lui. Plutôt que d'examiner les caractéristiques du sujet dyslexique, elle observe comment la remédiation est conduite et adaptée en fonction de chaque sujet et comment elle agit sur lui. Le système alphabétique est fondé sur l'association graphème / phonème. Le phonème se définit essentiellement en termes articulatoires et non en termes acoustiques. La maîtrise de la lecture s'appuie donc en premier lieu sur la représentation motrice de la parole qui constitue le traitement actif permettant la connexion entre représentation visuelle et représentation auditive. La remédiation des troubles de la lecture est fondée sur l'oralisation. Cette dernière constitue le principe actif de toute rééducation, non parce qu'elle sonorise l'écrit, mais parce qu'elle permet au sujet de retrouver les gestes de parole symbolisés par les graphèmes. De ce point de vue, ce ne sont pas les dyslexiques, mais les normolecteurs qui ont une structure cognitive commune. Elle correspond à l'empreinte du système alphabétique qui génère une représentation audio-visuo-grapho-phonatoire de la parole
Data about expert reader, reading learning and reading disabilities lead neither to a homogeneous definition of dyslexics nor a coherent methodology of remediation. This thesis aims to analyse reading learning difficulties in a new way. Rather than considering the good reader's behavior, we examine the constraints imposed and the resources required by alphabetic system. Rather than examine the dyslexic’s characteristics, we observe how the remediation is adapted to the subjects and influences them. The alphabetic system is based on grapheme / phoneme association. The phoneme is defined by articulatory more than acoustic features. Thus, reading is primarily based on speech-motor representation which actively connects visual and auditory representations. Learning disabilities remediation is based on oral realization, which is the active principle of each remediation program, as it enables readers to recognize speech gesture symbolised by graphemes. Thus it appears that the normal readers and not the dyslexics share a cognitive structure which corresponds to the alphabetic system mark, generating an audio-visuo-grapho-phonatory representation of speech
Style APA, Harvard, Vancouver, ISO itp.
24

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066324/document.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
Style APA, Harvard, Vancouver, ISO itp.
25

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066324.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
Style APA, Harvard, Vancouver, ISO itp.
26

Rusch, Roxanne. "Mesures indirectes de rotation effectuées à partir de l’antenne sismique du LSBB. Quantification et représentation graphique de l’incertitude". Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03177660.

Pełny tekst źródła
Streszczenie:
L’analyse des composantes de rotation du champ d’ondes est utile pour une multitude d’applications allant de la décomposition du champ d’ondes à l’estimation de la structure géologique en passant par l’inversion de source. Ces composantes de rotation peuvent être obtenues indirectement à partir d’un réseau de station mesurant les trois composantes de translation tel que celui installé au LSBB (Laboratoire Souterrain à Bas Bruit) depuis 2006. Afin de pouvoir interpréter les résultats obtenus, il est nécessaire de connaître l’incertitude attribuée à cette mesure de rotation. Toutefois cette incertitude a très peu été développée dans la littérature. L’objectif de cette thèse était de développer deux méthodes. La première méthode a été développée afin de quantifier l’incertitude déterministe associée aux mesures indirectes de rotation en fonction des longueurs d’onde. La deuxième méthode quant à elle a été développée afin de représenter graphiquement cette incertitude déterministe sur les signaux de rotation. Ces deux méthodes ont été appliquées au cas du séisme d’Amatrice (Italie) de magnitude Mw 6,2 ayant eu lieu le 24 août 2016 à 01h36. Celui-ci a été enregistré par le réseau sismique trois composantes (3C) de translation du LSBB. La mesure indirecte de rotation verticale ainsi que l’incertitude associée ont respectivement été confrontées à une mesure directe de rotation et une incertitude statistique. Les résultats de cette thèse montrent que pour atteindre une incertitude inférieure à 10%, il est nécessaire de soigner la mise en place du réseau (alignement, positionnement, calibration des capteurs), au-delà des normes admises pour la plupart des réseaux sismiques. Ce travail offre des perspectives pour améliorer les caractérisations rapides des séismes à partir de données 3C de rotation des réseaux sismiques
Analyzing the rotational motions of the seismic wave field is useful for a multitude of applications ranging from wave field decomposition to geological structure estimation or source inversion. Rotational motions can be indirectly estimated (array-derived rotations) from a three translational components seismic array such as the ones deployed by the Low Noise Inter-Disciplinary Underground Science & Technology laboratory (LSBB) since 2006. In order to be able to interpret the results obtained, it is necessary to know the uncertainty attributed to the rotational measurements. However, uncertainty associated to array-derived rotation has only slightly been approached in the literature. The goal of this thesis was to develop two methods. The first method was used to quantify the deterministic uncertainty associated with array-derived rotations as a function of wavelengths. The second method was used to graphically represent this quantified uncertainty on rotation measurements. Both methods were applied to the Mw 6.2 Amatrice (Italy) earthquake that occurred on the 24th of August 2016 at 01.36 am. This one was recorded by the three translational components (3C) array of the LSBB. The vertical component of array-derived rotation as well as its associated uncertainty were respectively validated against a direct rotation measurement and a statistical uncertainty. The results of this thesis infer that in order to have an uncertainty lower than 10%, then care must be taken, in setting up the seismic array (sensors’ alignment, positioning, calibration), beyond the standards accepted for most seismic array. Extending on this thesis could offers developments in earthquakes characterization from 3C of array-derived rotation
Style APA, Harvard, Vancouver, ISO itp.
27

Regnault, Cécile. "Les représentations visuelles des phénomènes sonores : application à l'urbanisme". Nantes, 2001. http://www.theses.fr/2001NANT2051.

Pełny tekst źródła
Streszczenie:
Représenter l'espace est une préoccupation constante des aménageurs. Ces visualisations (carte, diagramme, plan, coupe, élévation, photographies, images de synthèse) sont à la fois des outils graphiques d'analyse, des outils de conception, des outils de communication assurant la nécessaire coordination entre les acteurs de l'aménagement. Parallèlement la difficulté d'intégration des connaissances sur les phénomènes sonores situes dans les projets d'aménagement est doublée d'une véritable carence dans les moyens graphiques mis à disposition pour visualiser le sonore dans un contexte construit. Réalisé à partir d'un corpus d'images pluridisciplinaires (phonétique, acoustique, musique, électroacoustique, écologie sonore, arts plastiques, photographie), l'inventaire général mis en œuvre constitue l'essentiel de ce travail exploratoire : analyser les images en s'inspirant des méthodes de la sémiotique visuelle, synthétiser le corpus sous forme d'un catalogue raisonne, classer et classifier les images. Quatre grands types de dispositifs visuels (cartographie, transcription temporelle, diagramme et perspective) sont définis comme support des phénomènes sonores représentables selon trois approches (flux, chose sonifère, auditum). Leurs fonctions communicatives (décrire des qualités sonores, montrer des faits sonores, expliquer des concepts sonores) sont liées à leur degré de schématisation dont nous avons relevé 4 niveaux : image de type photographique, dessin technique, croquis, schéma de principe. Réalisé à titre expérimental sur un parcours sonore urbain, le test de validité de la transcription temporelle sur fond sonagraphique (logiciel acousmographe INA-GRM) semble confirmer l'intérêt des emprunts d'outil de visualisation et des transferts de connaissances entre disciplines. A terme, les inventions graphiques et plastiques devraient se nourrir des avancées théoriques sur les correspondances image-son, qu'elles soient sensorielles, structurelles ou conceptuelles.
Style APA, Harvard, Vancouver, ISO itp.
28

Prudhomme, Elie. "Représentation et fouille de données volumineuses". Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20048/document.

Pełny tekst źródła
Streszczenie:
Le stockage n'étant plus soumis à des contraintes de coût importantes, les systèmes d'information collectent une quantité croissante de données, souvent via des processus d'acquisition automatique. En parallèle, les objets d'intérêt sont devenus plus complexes. C'est le cas, par exemple, des images, du texte ou encore des puces à ADN. Pour leur analyse, les méthodes d'apprentissage doivent alors prendre en compte l'augmentation massive et conjointe du nombre d'exemples et d'attributs qui en résultent. Or, les outils classiques de l'apprentissage automatique ne sont pas toujours adaptés à ce changement de volumétrie tant au niveau de leur complexité algorithmique que pour appréhender la structure des données. Dans ce contexte de données volumineuses en apprentissage supervisé, nous nous sommes intéressés à l'extraction de deux catégories de connaissances, conjointement à la prédiction, la première relative à l'organisation des exemples entre eux et la seconde relative aux interactions qui existent entre les attributs. Pour nous intéresser aux relations entre les exemples, nous définissons le concept de représentation en apprentissage supervisé comme une modélisation et une visualisation des données à la fois du point de vue de la proximité entre les exemples et du lien entre la position des exemples et leur étiquette. Parmi les différents algorithmes recensés qui conduisent à l'obtention d'une telle représentation, nous retenons les cartes auto-organisatrices qui présentent la plus faible complexité algorithmique, ce qui les rend adaptées aux données volumineuses. L'algorithme des cartes auto-organisatrices étant nonsupervis é, nous proposons une adaptation à l'apprentissage supervisé par le biais des cartes étiquetées (Prudhomme et Lallich, 2005b). Nous montrons également qu'il est possible de valider statistiquement la qualité de la représentation obtenue par une telle carte (Prudhomme et Lallich, 2005a). Les statistiques que nous proposons sont corrélées avec le taux d'erreur en généralisation, ce qui permet de juger a priori de la qualité de la prédiction qui résulte de la carte. Néanmoins, la prédiction des cartes auto-organisatrices n'est pas toujours satisfaisante face à des données en grandes dimensions. Dans ce cas, nous avons recours aux méthodes ensemblistes. Ces méthodes agrègent la prédiction de plusieurs classifieurs simples. En créant une certaine diversité entre les prédictions de ces classifieurs, les méthodes ensemblistes améliorent la prédiction qui aurait été obtenue par un seul classifieur. Pour créer cette diversité, nous apprenons chaque classifieur simple (dans notre cas, des cartes auto-organisatrices) sur un sous-espace de l'espace d'apprentissage. La diversité est ainsi l'occasion de diminuer la dimensionnalité du problème. Afin de choisir au mieux les sous-espaces, nous nous sommes inspirés des connaissances théoriques disponibles sur la répartition de l'erreur en généralisation d'un ensemble. Nous avons alors proposé deux heuristiques. La première heuristique est non-supervisée. Elle repose sur l'interprétation des corrélations entre attributs pour déterminer les sous-espaces à apprendre (Prudhomme et Lallich, 2007). La seconde heuristique, au contraire, est supervisée. Elle optimise par un algorithme génétique une mesure de l'erreur d'un ensemble en fonction de l'erreur des classifieurs qui le composent (Prudhomme et Lallich, 2008b). Ces deux heuristiques conduisent à des ensembles de cartes (ou des comités de cartes) dont l'erreur en généralisation est plus faible que celle d'une carte seule apprise sur la totalité des attributs. Néanmoins, ils conduisent également à une multitude de représentations. Pour proposer une seule représentation à l'issue de l'apprentissage, nous introduisons la notion de stacking géographique. (...)
/
Style APA, Harvard, Vancouver, ISO itp.
29

Orzan, Alexandrina. "Images basées sur les contours : représentation, création et manipulation". Grenoble INPG, 2009. http://www.theses.fr/2009INPG0179.

Pełny tekst źródła
Streszczenie:
La présente thèse propose une nouvelle représentation pour les images qui se base sur les contours. Cette représentation est particulièrement adaptée aux images vectorielles et permet via l’apposition d’informations à ces mêmes contours, l’ajout de dégrades complexes de couleurs, d’effets d’éclairage et de textures que l’on peut dès lors « draper » dans l’image. Cet encodage par les contours s’applique également aux images bitmap, et la manipulation de ces contours confère des moyens d’édition plus évolués que l’édition pixellique. Cette représentation commune entre les images bitmap et vectorielles constitue enfin une méthode de vectorisation efficace. On s’intéresse aussi aux possibilités de création et de modification que fournit cette nouvelle représentation. Nous proposons à cette fin un ensemble unifié d’algorithmes pour créer, manipuler et modifier ces images
This thesis proposes a novel image primitive—the diffusion curve. This primitive relies on the principle that images can be defined via their discontinuities, and concentrates image features along contours. The diffusion curve can be defined in vector graphics, as well as in raster graphics, to increase user control during the process of art creation. The vectorial diffusion curve primitive augments the expressive powers of vector images by capturing complex spatial appearance behaviours. Diffusion curves represent a simple and easy to manipulate support for complex content representation and edition. In raster images, diffusion curves define a higher level structural organization of the pixel image. This structure is used to create simplified or exaggerated representations of photographs in a way consistent with the original image content. Finally, a fully automatic vectorization method is presented, that converts raster diffusion curve to vector diffusion curve
Style APA, Harvard, Vancouver, ISO itp.
30

Arneton, Mélissa. "Bilinguisme et apprentissage des mathématiques : études à la Martinique". Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN21009/document.

Pełny tekst źródła
Streszczenie:
Cette thèse part du constat selon lequel les élèves domiens obtiennent, depuis plusieurs années déjà, des résultats inférieurs à ceux des élèves métropolitains aux évaluations nationales; le plus étonnant est que les écarts observés sont plus importants en mathématiques qu'en français. Nous nous intéressons alors à des caractéristiques culturelles (le bilinguisme et les représentations collectives) susceptibles d'influencer les apprentissages scolaires, dans un département français que l'on peut considérer comme un "laboratoire naturel": la Martinique. Quatre études sont menées auprès de deux niveaux scolaires (en cours élémentaire et en 6ème). La première étude consiste en analyses secondaires des données des évaluations nationales, portant sur plusieurs années. Elles confirment la réalité du constat posé éliminent l'hypothèse d'une difficulté particulière dans un champ spécifique des mathématiques (par exemple, la géométrie) et celle d'un biais d'items. La seconde étude, à travers un dispositif expérimental permettant 1) de mesurer le bilinguisme dans ses versants social et cognitif des élèves martiniquais 2) d'évaluer de façon diverse les performances des enfants en mathématiques et 3) de recueillir leurs résultats aux évaluations nationales, réfute l'hypothèse de l'influence du bilinguisme sur les apprentissages. La troisième étude s'intéresse alors au lien entre les représentations culturelles (et plus spécifiquement les représentations des enfants quant aux disciplines scolaires) et leurs performances. Les résultats obtenus ne permettent pas de conclure que les enfants martiniquais ont des représentations moins favorables envers les mathématiques que les enfants métropolitains. La dernière étude compile des données recueillies lors des dispositifs précédents afin de renforcer l'hypothèse réfutée quant à l'influence du bilinguisme français / créole sur les apprentissages. Tout en interprétant ces résultats, nous proposons enfin des pistes de réflexion que ce soit au niveau de la méthodologie et des instruments utilisés dans cette étude, ou au niveau d'autres pistes culturelles à explorer
In this thesis, we try to explain why French overseas pupils have got, for many years, inferior performances to their mainland French school fellows at national academic evaluations. The most surprising is that the observed differences are stronger in mathematics than in French. Then, we focus on the cultural characteristics (bilingualism and collective beliefs) able to influence the school learning, in a French Overseas Department considered as a ?natural laboratory?: Martinique. We carry out four studies with two educational levels (in elementary school and first year of the secondary school). In the first study, we make side analysis of several years' national academic data. They acknowledge the observation as a reality and they invalidate two hypotheses, one to a specific difference in a particular field of mathematics (in geometry for example) and a second relative to an item differential functioning. In the second study, an experimental procedure allows 1) to measure social and cognitive bilingualism of Martinican pupils, 2) to evaluate with different procedures the children performances in mathematics and 3) to collect their scores at national evaluations. This second study refutes the hypothesis of the influence of bilingualism on academic learning. In the third study, we deal with the link between social beliefs (specifically the children?s beliefs of the school disciplines) and their performances. The results do not allow to conclude that the martinican children have worst beliefs of the mathematics than the French mainland children. In the last study, we compile data collected in the precedent analysis, in order to refute the bilingualism?s influence on the school learning. Finally, in the same time, we explain our observations and we submit considered perspectives relatives, for one part, to methodology and the instruments used in this research and, for the second part, to others cultural perspectives, which could be explore
Style APA, Harvard, Vancouver, ISO itp.
31

Tremblay, Guillaume. "Optimisation d'ensembles de classifieurs non paramétriques avec apprentissage par représentation partielle de l'information". Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/716/1/TREMBLAY_Guillaume.pdf.

Pełny tekst źródła
Streszczenie:
L'un des défis de la reconnaissance de formes (RF) est de concevoir des systèmes à la fois simples (peu de paramètres, faible coût de calcul) et performants (haut taux de reconnaissance). Il est démontré que les ensembles de classifieurs (EoC) peuvent permettre d'obtenir de meilleures performances qu'un classifieur unique, d'où la recherche d'un compromis entre simplicité et performance. L'utilisation de classifieurs non paramétriques de type k-NN ayant une représentation partielle de l'information favorise toutefois la simplicité d'un système de RF. Dans le présent travail, nous avons utilisé un tel ensemble de k-NN pour vérifier s'il était possible de concevoir des EoC par sélection de classifieurs pour améliorer la simplicité tout en augmentant la performance du système. L'utilisation d'un algorithme d'optimisation pouvant explorer de grands espaces mal définis est nécessaire pour atteindre cet objectif. Afin d'aider la recherche, différentes mesures de «diversité» sont proposées dans la littérature. Nous avons tenté d'optimiser un EoC à l'aide de différentes méthodes de recherche et avons testé l'effet de la maximisation conjointe de la performance avec un échantillon des mesures de diversité les plus populaires. Toutes les expériences ont été répétées 30 fois de façon à pouvoir comparer, à l'aide de tests statistiques, les différentes approches évaluées. Nous avons découvert que la maximisation conjointe de la simplicité et de la performance était la meilleure façon de créer un ensemble optimisant ces deux objectifs. Par contre, pour générer des ensembles ayant une performance maximale, l'utilisation d'un algorithme de recherche à un seul objectif est préférable. Contrairement à nos attentes, il n'a pas été possible de démontrer un avantage significatif à l'utilisation d'une mesure de diversité comme critère d'optimisation. À notre connaissance, c'était la première fois qu'était étudiée de manière exhaustive la façon de faire de la sélection de classifieurs de type k-NN basés sur le paradigme des sous-espaces aléatoires. L'application systématique de tests statistiques pour valider les résultats des stratégies de sélection de classifieurs a été rendue possible grâce à l'utilisation d'une grappe d'ordinateurs et à la création de base de données de votes précalculés. Cette validation statistique est rarement mise en oeuvre dans le domaine.
Style APA, Harvard, Vancouver, ISO itp.
32

Hay, Julien. "Apprentissage de la représentation du style écrit, application à la recommandation d’articles d’actualité". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG010.

Pełny tekst źródła
Streszczenie:
La modélisation des utilisateurs est une étape essentielle lorsqu'il s'agit de recommander des produits et proposer des services automatiquement. Les réseaux sociaux sont une ressource riche et abondante de données utilisateur (p. ex. liens partagés, messages postés) permettant de modéliser leurs intérêts et préférences. Dans cette thèse, nous proposons d'exploiter les articles d'actualité partagés sur les réseaux sociaux afin d'enrichir les modèles existants avec une nouvelle caractéristique textuelle : le style écrit. Cette thèse, à l'intersection des domaines du traitement automatique du langage naturel et des systèmes de recommandation, porte sur l'apprentissage de la représentation du style et de son application à la recommandation d'articles d'actualité. Dans un premier temps, nous proposons une nouvelle méthode d'apprentissage de la représentation du texte visant à projeter tout document dans un espace stylométrique de référence. L'hypothèse testée est qu'un tel espace peut être généralisé par un ensemble suffisamment large d'auteurs de référence, et que les projections vectorielles des écrits d'un auteur « nouveau » seront proches, d'un point de vue stylistique, des écrits d'un sous-ensemble consistant de ces auteurs de référence. Dans un second temps, nous proposons d'exploiter la représentation stylométrique du texte pour la recommandation d'articles d'actualité en la combinant à d'autres représentations (p. ex. thématique, lexicale, sémantique). Nous cherchons à identifier les caractéristiques les plus complémentaires pouvant permettre une recommandation d'articles plus pertinente et de meilleure qualité. L'hypothèse ayant motivé ces travaux est que les choix de lecture des individus sont non seulement influencés par le fond (p. ex. le thème des articles d'actualité, les entités mentionnées), mais aussi par la forme (c.-à-d. le style pouvant, par exemple, être descriptif, satirique, composé d'anecdotes personnelles, d'interviews). Les expérimentations effectuées montrent que non seulement le style écrit joue un rôle dans les préférences de lecture des individus, mais aussi que, lorsqu'il est combiné à d'autres caractéristiques textuelles, permet d'augmenter la précision et la qualité des recommandations en termes de diversité, de nouveauté et de sérendipité
User modeling is an essential step when it comes to recommending products and offering services automatically. Social networks are a rich and abundant resource of user data (e.g. shared links, posted messages) that allow to model their interests and preferences. In this thesis, we propose to exploit news articles shared on social networks in order to enrich existing models with a new textual feature: the writing style. This thesis, at the intersection of the fields of natural language processing and recommender systems, focuses on the representation learning of writing style and its application to news recommendation. As a first step, we propose a new representation learning method that aims to project any document into a reference stylometric space. The hypothesis being tested is that such a space can be generalized by a sufficiently large set of reference authors, and that the vector projections of the writings of a "new" author will be stylistically close to the writings of a consistent subset of these reference authors. In a second step, we propose to exploit the stylometric representation for news recommendation by combining it with other representations (e.g. topical, lexical, semantic). We seek to identify the most relevant and complementary characteristics that can allow a more relevant and better quality recommendation of articles. The hypothesis that motivated this work is that the reading choices of individuals are not only influenced by the content (e.g. the theme of news articles, the entities mentioned), but also by the form (i.e. the style that can, for example, be descriptive, satirical, composed of personal anecdotes, interviews). The experiments conducted show that not only does writing style play a role in individuals' reading preferences, but also that, when combined with other textual features, it increases the accuracy and quality of recommendations in terms of diversity, novelty and serendipity
Style APA, Harvard, Vancouver, ISO itp.
33

Chevaleyre, Yann. "Apprentissage de règles à partir de données multi-instances". Paris 6, 2001. http://www.theses.fr/2001PA066502.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
34

Soldano, Henry. "Apprentissage : Paradigmes, Structures et abstractions". Habilitation à diriger des recherches, Université Paris-Nord - Paris XIII, 2009. http://tel.archives-ouvertes.fr/tel-00514160.

Pełny tekst źródła
Streszczenie:
L'ensemble des travaux présentés relève de l'Apprentissage Artificiel, et aborde l'apprentissage supervisé, ainsi que l'aide à la découverte par la fouille de données. On se place ici dans le cas où un problème d'apprentissage passe par l'exploration d'un "Espace de Recherche", constitué de représentations formées dans un certain langage d'énoncés. La structure cachée liant "énoncés" et sous-ensembles d'"objets", représentable dans un treillis intension/extension, permet en particulier de réduire l'espace de recherche dans les problèmes d'apprentissage supervisé. Je présente ensuite une forme d'"abstraction" ordonnée faisant varier le niveau de granularité des énoncés, ou des objets considérés, et garantissant que le treillis intension/extension est ainsi lui-même réduit. Certains travaux concernant la recherche de motifs séquentiels réquents, sont également interprétés du point de vue de cette relation intension/extension. Enfin, deux "paradigmes" nouveaux en apprentissage supervisé sont présentés, l'un traitant de la notion d'ambiguïté des exemples, l'autre étendant l'apprentissage supervisé cohérent dans un cadre collectif.
Style APA, Harvard, Vancouver, ISO itp.
35

Muhlenbach, Fabrice. "Evaluation de la qualité de la représentation en fouille de données". Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/muhlenbach_f.

Pełny tekst źródła
Streszczenie:
L'extraction de connaissances à partir de données (ECD) cherche à produire de nouvelles connaissances utilisables en tirant parti des grandes bases de données. Avant de procéder à la phase de fouille de données, étapes phare de l'ECD, pour pouvoir opérer un apprentissage automatique, un ensemble de questions et de problèmes se posent : comment avoir a priori une idée de la manière dont les étiquettes de la variable à apprendre peuvent être séparées en fonction des variables prédictives ? comment traiter les bases pour lesquelles nous savons que des étiquettes sont fausses ? comment transformer des variables prédictives continues en variables discrètes en tenant compte globalement des informations de la variable à prédire ? Nous proposons diverses réponses à ces problèmes. Ces solutions exploitent les propriétés d'outils géométriques : les graphes de voisinage. Le voisinage entre des individus projetés dans un espace à p dimensions nous fournit un moyen de caractériser la ressemblance entre les exemples à apprendre. A partir de ceci, nous élaborons un test statistique basé sur le poids des arêtes qu'il faut retirer dans un graphe de voisinage pour n'avoir que des sous-graphes d'une seul étiquette, ce qui nous informe de la séparabilité a priori des classes. Nous prolongeons ces réflexions dans le cadre de la détection d'individus dont l'étiquette est douteuse : nous proposons une stratégie de suppression et de réétiquetage d'exemples douteux dans l'échantillon d'apprentissage afin d'augmenter la qualité des modèles prédictifs exploitant cet échantillon de données. Ces travaux sont étendus au cas particulier où la variable à prédire est numérique : nous présentons un test de structure pour la prédiction d'une telle variable. Enfin, nous présenton une méthode de discrétisation supervisée polythétique qui repose sur les graphes de voisinage et montrons ses performances en l'employant avec une méthode d'apprentissage supervisé que nous avons développée
Knowledge discovery tries to produce novel and usable knowledge from the databases. In this whole process, data mining is the crucial machine learning step but we must asked some questions first: how can we have an a priori idea of the way of the labels of the class attribute are separable or not? How can we deal with databases where some examples are mislabeled? How can we transform continuous predictive attributes in discrete ones in a supervised way by taking into account the global information of the data ? We propose some responses to these problems. Our solutions take advantage of the properties of geometrical tools: the neighbourhood graphs. The neighbourhood between examples projected in a multidimensional space gives us a way of characterising the likeness between the examples to learn. We develop a statistical test based on the weight of edges that we must suppress from a neighbourhood graph for having only subgraphs of a unique class. This gives information about the a priori class separability. This work is carried on in the context of the detection of examples from a database that have doubtful labels: we propose a strategy for removing and relabeling these doubtful examples from the learning set to improve the quality of the resulting predictive model. These researches are extended in the special case of a continuous class to learn: we present a structure test to predict this kind of variable. Finally, we present a supervised polythetic discretization method based on the neighbourhood graphs and we show its performances by using it with a new supervised machine learning algorithm
Style APA, Harvard, Vancouver, ISO itp.
36

Fernandez, Hélène. "Anatomie de la ville : décrire, dessiner, découper : la représentation graphique des documents d'aménagement de la région de Paris, 1934-1994". Paris 8, 2004. http://www.theses.fr/2004PA083554.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
37

Bouchard, Jacqueline. "Imagerie expérientielle, représentation de soi et éducation, la technologie au service de l'enseignement-apprentissage". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0015/MQ56393.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
38

Baere, Campos Neves José Alberto. "Contribution à la construction automatique de représentation 3D d'objets solides". Compiègne, 1989. http://www.theses.fr/1989COMPD171.

Pełny tekst źródła
Streszczenie:
Ce travail présente un système de construction automatique de représentations 3D d'objets solides, où sur les données d'entrée sont des images en niveaux de gris acquises sur l'objet. Dans une première étape nous construisons une représentation du volume occupée dans l'espace à partir de ces images. Ensuite nous déterminons une représentation approchée du type fil de fer de l'objet, utilisée pour affichage et pour la définition interactive de repères fonctionnels. Partant du code volumique de base, nous proposons un nouveau système de codage de la surface de l'objet. Cette représentation est ensuite segmentée en faces planes de l'objet dont nous déterminons et codons les contours.
Style APA, Harvard, Vancouver, ISO itp.
39

Gautheron, Léo. "Construction de Représentation de Données Adaptées dans le Cadre de Peu d'Exemples Étiquetés". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES044.

Pełny tekst źródła
Streszczenie:
L'apprentissage automatique consiste en l'étude et la conception d'algorithmes qui construisent des modèles capables de traiter des tâches non triviales aussi bien ou mieux que les humains et, si possible, à un moindre coût.Ces modèles sont généralement entraînés à partir d'un ensemble de données où chaque exemple décrit une instance de la même tâche et est représenté par un ensemble de caractéristiques et un résultat ou étiquette que nous voulons généralement prédire.Un élément nécessaire au succès de tout algorithme d'apprentissage automatique est lié à la qualité de l'ensemble de caractéristiques décrivant les données, également appelé représentation des données.Dans l'apprentissage supervisé, plus les caractéristiques décrivant les exemples sont corrélées avec l'étiquette, plus le modèle sera efficace.Il existe trois grandes familles de caractéristiques : les caractéristiques ``observables'', les caractéristiques ``fabriquées à la main'' et les caractéristiques ``latentes'' qui sont généralement apprises automatiquement à partir des données d'entraînement.Les contributions de cette thèse s'inscrivent dans le cadre de cette dernière catégorie. Plus précisément, nous nous intéressons au cadre spécifique de l'apprentissage d'une représentation discriminatoire lorsque le nombre de données d'intérêt est limité.Un manque de données d'intérêt peut être constaté dans différents scénarios.Tout d'abord, nous abordons le problème de l'apprentissage déséquilibré avec une classe d'intérêt composée de peu d'exemples en apprenant une métrique qui induit un nouvel espace de représentation où les modèles appris ne favorisent pas les exemples majoritaires.Deuxièmement, nous proposons de traiter un scénario avec peu d'exemples disponibles en apprenant en même temps une représentation de données pertinente et un modèle qui généralise bien en boostant des modèles basés sur des noyaux et des caractéristiques de Fourier aléatoires.Enfin, pour traiter le scénario d'adaptation de domaine où l'ensemble cible ne contient pas d'étiquette alors que les exemples sources sont acquis dans des conditions différentes, nous proposons de réduire l'écart entre les deux domaines en ne conservant que les caractéristiques les plus similaires qui optimisent la solution d'un problème de transport optimal entre les deux domaines
Machine learning consists in the study and design of algorithms that build models able to handle non trivial tasks as well as or better than humans and hopefully at a lesser cost.These models are typically trained from a dataset where each example describes an instance of the same task and is represented by a set of characteristics and an expected outcome or label which we usually want to predict.An element required for the success of any machine learning algorithm is related to the quality of the set of characteristics describing the data, also referred as data representation or features.In supervised learning, the more the features describing the examples are correlated with the label, the more effective the model will be.There exist three main families of features: the ``observable'', the ``handcrafted'' and the ``latent'' features that are usually automatically learned from the training data.The contributions of this thesis fall into the scope of this last category. More precisely, we are interested in the specific setting of learning a discriminative representation when the number of data of interest is limited.A lack of data of interest can be found in different scenarios.First, we tackle the problem of imbalanced learning with a class of interest composed of a few examples by learning a metric that induces a new representation space where the learned models do not favor the majority examples.Second, we propose to handle a scenario with few available examples by learning at the same time a relevant data representation and a model that generalizes well through boosting models using kernels as base learners approximated by random Fourier features.Finally, to address the domain adaptation scenario where the target set contains no label while the source examples are acquired in different conditions, we propose to reduce the discrepancy between the two domains by keeping only the most similar features optimizing the solution of an optimal transport problem between the two domains
Style APA, Harvard, Vancouver, ISO itp.
40

Zeng, Tieyong. "Études de Modèles Variationnels et Apprentissage de Dictionnaires". Phd thesis, Université Paris-Nord - Paris XIII, 2007. http://tel.archives-ouvertes.fr/tel-00178024.

Pełny tekst źródła
Streszczenie:
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Nous nous sommes intéressés aux différents aspects mathématiques et pratiques de ce genre de méthodes: modélisation, analyse de propriétés de la solution d'un modèle, analyse numérique, apprentissage du dictionnaire et expérimentation. Après le Chapitre 1, qui retrace les étapes les plus significatives de ce domaine, nous présentons dans le Chapitre 2 notre implémentation et les résultats que nous avons obtenus avec le modèle consistant à résoudre \begin{equation}\label{tv-inf} \left\{\begin{array}{l} \min_{w} TV(w), \\ \mbox{sous les contraintes } |\PS{w-v}{\psi}|\leq \tau, \forall \psi \in \DD \end{array}\right. \end{equation} pour $v\in\RRN$, une donnée initiale, $\tau>0$, $TV(\cdot)$ la variation totale et un dictionnaire {\em invariant par translation} $\DD$. Le dictionnaire est, en effet, construit comme toutes les translations d'un ensemble $\FF$ d'éléments de $\RRN$ (des caractéristiques ou des patchs). L'implémentation de ce modèle avec ce genre de dictionnaire est nouvelle. (Les auteurs avaient jusque là considéré des dictionnaires de paquets d'ondelettes ou de curvelets.) La souplesse de la construction du dictionnaire a permis de conduire plusieurs expériences dont les enseignements sont rapportés dans les Chapitre 2 et 3. Les expériences du Chapitre 2 confirment que, pour obtenir de bons résultats en débruitage avec le modèle ci-dessus, le dictionnaire doit bien représenter la courbure des textures. Ainsi, lorsque l'on utilise un dictionnaire de Gabor, il vaut mieux utiliser des filtres de Gabor dont le support est isotrope (ou presque isotrope). En effet, pour représenter la courbure d'une texture ayant une fréquence donnée et vivant sur un support $\Omega$, il faut que le support, en espace, des filtres de Gabor permette un ``pavage'' avec peu d'éléments du support $\Omega$. Dans la mesure o\`{u}, pour une classe générale d'images, le support $\Omega$ est indépendant de la fréquence de la texture, le plus raisonnable est bien de choisir des filtres de Gabor dont le support est isotrope. Ceci est un argument fort en faveur des paquets d'ondelettes, qui permettent en plus d'avoir plusieurs tailles de supports en espace (pour une fréquence donnée) et pour lesquelles \eqref{tv-inf} peut être résolu rapidement. Dans le Chapitre 3 nous présentons des expériences dans lesquels le dictionnaire contient les courbures de formes connues (des lettres). Le terme d'attache aux données du modèle \eqref{tv-inf} autorise l'apparition dans le résidu $w^*-v$ de toutes les structures, sauf des formes ayant servi à construire le dictionnaire. Ainsi, on s'attend à ce que les forment restent dans le résultat $w^*$ et que les autres structures en soient absente. Nos expériences portent sur un problème de séparation de sources et confirment cette impression. L'image de départ contient des lettres (connues) sur un fond très structuré (une image). Nous montrons qu'il est possible, avec \eqref{tv-inf}, d'obtenir une séparation raisonnable de ces structures. Enfin ce travail met bien en évidence que le dictionnaire $\DD$ doit contenir la {\em courbure} des éléments que l'on cherche à préserver et non pas les éléments eux-mêmes, comme on pourrait le penser na\"{\i}vement. Le Chapitre 4 présente un travail dans lequel nous avons cherché à faire collaborer la méthode K-SVD avec le modèle \eqref{tv-inf}. Notre idée de départ est d'utiliser le fait que quelques itérations de l'algorithme qu'il utilise pour résoudre \eqref{tv-inf} permettent de faire réapparaître des structures absentes de l'image servant à l'initialisation de l'algorithme (et dont la courbure est présente dans le dictionnaire). Nous appliquons donc quelques une de ces itérations au résultat de K-SVD et retrouvons bien les textures perdues. Ceci permet un gain visuel et en PSNR. Dans le Chapitre 5, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Celle-ci consiste à appliquer un algorithme du point proximal à ce modèle. L'intérêt est de transformer un problème convexe non-différentiable en une suite (convergeant rapidement) de problèmes convexes très réguliers. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Cet algorithme permet d'améliorer considérablement la qualité (en terme de parcimonie) de la solution par rapport à l'état de l'art concernant la résolution pratique du Basis Pursuit. Nous nous espérons que cet algorithme devrait avoir un impact conséquent dans ce domaine en rapide développement. Dans le Chapitre 6, nous adapte aux cas d'un modèle variationnel, dont le terme régularisant est celui du Basis Pursuit et dont le terme d'attache aux données est celui du modèle \eqref{tv-inf}, un résultat de D. Donoho (voir [55]). Ce résultat montre que, sous une condition liant le dictionnaire définissant le terme régularisant au dictionnaire définissant le terme d'attache aux données, il est possible d'étendre les résultats de D. Donoho aux modèles qui nous intéressent dans ce chapitre. Le résultat obtenu dit que, si la donnée initiale est très parcimonieuse, la solution du modèle est proche de sa décomposition la plus parcimonieuse. Ceci garantie la stabilité du modèle dans ce cadre et fait un lien entre régularisation $l^1$ et $l^0$, pour ce type d'attache aux données. Le Chapitre 7 contient l'étude d'une variante du Matching Pursuit. Dans cette variante, nous proposons de réduire le produit scalaire avec l'élément le mieux corrélé au résidu, avant de modifier le résidu. Ceci pour une fonction de seuillage général. En utilisant des propriétés simples de ces fonctions de seuillage, nons montrons que l'algorithme ainsi obtenu converge vers la projection orthogonale de la donnée sur l'espace linéaire engendré par le dictionnaire (le tout modulo une approximation quantifiée par les caractéristiques de la fonction de seuillage). Enfin, sous une hypothèse faible sur la fonction de seuillage (par exemple le seuillage dur la satisfait), cet algorithme converge en un temps fini que l'on peut déduire des propriétés de la fonction de seuillage. Typiquement, cet algorithme peut-être utilisé pour faire les projections orthogonales dans l'algorithme ``Orthogonal Matching Pursuit''. Ceci nous n'avons pas encore été fait. Le Chapitre 8 explore enfin la problématique de l'apprentissage de dictionnaires. Le point de vue développé est de considerer cette problématique comme un problème d'estimation de paramètres dans une famille de modèles génératifs additifs. L'introduction de switchs aléatoires de Bernoulli activant ou désactivant chaque élément d'un dictionnaire invariant par translation à estimer en permet l'identification dans des conditions assez générales en particulier dans le cas o\`{u} les coefficients sont gaussiens. En utilisant une technique d'EM variationel et d'approximation de la loi a posteriori par champ moyen, nous dérivons d'un principe d'estimation par maximum de vraisemblance un nouvel algorithme effectif d'apprentissage de dictionaire que l'on peut apparenter pour certains aspects à l'algorithme K-SVD. Les résultats expérimentaux sur données synthétiques illustrent la possibilité d'une identification correcte d'un dictionaire source et de plusieurs applications en décomposition d'images et en débruitage.
Style APA, Harvard, Vancouver, ISO itp.
41

Dahmani, Hassen Reda. "Étude des spécificités iconiques et fonctionnelles des images scientifiques (représentations figuratives et graphiques) et de leurs utilisations didactiques pour l’amélioration des apprentissages en biologie au Secondaire et à l’université : cas des molécules". Bordeaux 2, 2009. http://www.theses.fr/2009BOR21617.

Pełny tekst źródła
Streszczenie:
Ce travail consiste en l’étude, d’un point de vue didactique, sémiologique et épistémologique, des images scientifiques de molécules mobilisées dans l’enseignement de la biologie au niveau du lycée et de l’université (à Bordeaux et partiellement à Alger). Dans le domaine de la recherche scientifique, la visualisation transforme les données scientifiques en une forme concrète d’aide à la compréhension afin de promouvoir l’investigation et faciliter la communication. Dans le domaine de l’enseignement, les images de molécules transposées par les enseignants (du monde de la recherche, des manuels, des logiciels de visualisation moléculaire ou de ressources Internet), nécessitent d’être réadaptées pour satisfaire à de nouvelles conditions d’utilisation. Sur la base de l’établissement d’un état des lieux de leur utilisation en milieu scolaire (analyse de pratique, analyse d’entretien et de test…), l’étude présente une expérimentation de séquences d’enseignement considérant les images de molécules, pas seulement comme supports d’illustration, mais surtout comme outils de pensée insérés dans des activités didactiques rendant compte des démarches scientifiques qui ont permis de les produire. Il s’agit, d’une part, de faire fonctionner les images en prenant en compte leur rôle et les fonctions que l’activité scientifique leur assignent dans le processus de conceptualisation (faire élaborer par des élèves des représentations graphiques et les faire évoluer au cours de l’activité) et, d’autre part, d’associer et d’articuler le registre iconique à d’autres registres sémiotiques de type langagier afin de négocier la construction de signification au sein de cette communauté discursive qu’est la classe. Nous analysons ensuite l’impact sur l’apprentissage de ces deux approches complémentaires et ce qu’elles font apparaître comme contraintes sur les pratiques enseignantes. Enfin, nous prendrons en compte l’implication de tel résultats et réflexions sur le plan de la formation des enseignants aux images scientifiques
The study focuses on the analysis of scientific images of molecules used in the teaching of biology in high school and university. As a specific language, the images are used in the construction and appropriation of knowledge among students. Iconic representations, however, are characterized by their great diversity of forms and use. In addition, the virtual images, which are now increasingly present in education, provide new ways of analyzing the phenomena at the molecular level. For various reasons, students do not perceive scientific images the same way because of their complexity and high degree of abstraction. This can lead to discrepancies in interpretation and distortion of meaning. Teachers do not always take into account this problem. After an analysis of the use of scientific images of molecules in the school context (analysis of practice, analysis of interviews and tests …), our study aims at designing teaching activities that use images as tools of communication and conceptualization. The aim is to design educational activities that can positively influence learning. At the end of this study, we show how to achieve successful learning for students by using specific images. We specify the different conditions whereby these images become more functional (teaching conditions and teacher training)
Style APA, Harvard, Vancouver, ISO itp.
42

Herment, Michel. "GLEF ATINF, un cadre générique pour la connexion d'outils d'inférence et l'édition graphique de preuves". Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344974.

Pełny tekst źródła
Streszczenie:
Après un historique bref et général de la déduction automatique, on analyse les tendances actuelles et les besoins en présentation de preuves et communication d'outils d'inférence. Les notions théoriques concernées sont présentées et étudiées en détail. On donne ensuite une synthèse comparative critique et exhaustive de l'état de l'art. Cette synthèse manquait dans la littérature. L'analyse des notions fondamentales en logique et la synthèse sur l'état de l'art permettent d'établir les caractéristiques retenues pour le système GLEF (Graphical & Logical Edition Framework). La conception et la réalisation de deux langages ont permis de rendre GLEF générique (c'est à dire paramétrable par le système formel employé et par la présentation de ses preuves). Un formalisme de définition, fondé sur le Calcul des Construction (dû à Coquand et Huet), sert à représenter et à vérifier les systèmes formels et les preuves dans ses systèmes formels. Un langage de présentation, fondé sur la notion de «boîte», sert à décrire leur présentation. En annexe nous donnons un algorithme original pour l'opération d'effacement, particulièrement difficile en lambda-calcul typé, qui sert à réaliser la commande «couper» de GLEF. GLEF a été développé au sein du projet ATINF (ATelier d'INFérence). Un manuel utilisateur rudimentaire et de nombreux exemples d'utilisation en sont donnés. Certains exemples montrent comment, après avoir spécifié la définition et la présentation d'un système formel objet, un utilisateur de GLEF peut construire ou visualiser des preuves en manipulant directement les objets (formules, preuves partielles, etc.) à l'écran, avec la souris. D'autres illustrent comment GLEF présente les preuves produites par les démonstrateurs d'ATINF ou extérieurs à ATINF. Les principales lignes de recherche future concluent ce travail
Style APA, Harvard, Vancouver, ISO itp.
43

Lienou, Marie Lauginie. "Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005585.

Pełny tekst źródła
Streszczenie:
La reconnaissance de la couverture des sols à partir de classifications automatiques est l'une des recherches méthodologiques importantes en télédétection. Par ailleurs, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la production des cartes d'occupation du sol, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres.
Style APA, Harvard, Vancouver, ISO itp.
44

Lienou, Marie Lauginie. "Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires". Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005585.

Pełny tekst źródła
Streszczenie:
Dans le cadre de la reconnaissance de la couverture des sols à partir de classifications automatiques en télédétection, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la cartographie, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres
Land cover recognition from automatic classifications is one of the important methodological researches in remote sensing. Besides, getting results corresponding to the user expectations requires approaching the classification from a semantic point of view. Within this frame, this work aims at the elaboration of automatic methods capable of learning classes defined by cartography experts, and of automatically annotating unknown images based on this classification. Using corine land cover maps, we first show that classical approaches in the state-of-the-art are able to well-identify homogeneous classes such as fields, but have difficulty in finding high-level semantic classes, also called mixed classes because they consist of various land cover categories. To detect such classes, we represent images into visual words, in order to use text analysis tools which showed their efficiency in the field of text mining. By means of supervised and not supervised approaches on one hand, we exploit the notion of semantic compositionality: image structures which are considered as mixtures of land cover types, are detected by bringing out the importance of spatial relations between the visual words. On the other hand, we propose a semantic annotation method using a statistical text analysis model: latent dirichlet allocation. We rely on this mixture model, which requires a bags-of-words representation of images, to properly model high-level semantic classes. The proposed approach and the comparative studies with gaussian and gmm models, as well as svm classifier, are assessed using spot and quickbird images among others
Style APA, Harvard, Vancouver, ISO itp.
45

Gerot, Cédric. "Etude et construction d'un modèle de surface fondé sur la représentation par un atlas de cartes". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00097567.

Pełny tekst źródła
Streszczenie:
L'objet de ce mémoire est l'étude et la construction d'un modèle de surfaces fondé sur la représentation par un atlas de cartes :
L'intérêt d'un tel modèle est qu'il permet de travailler localement sur la sur face sans perte de la cohérence globale, et d'autre part d'hériter des notions de géométrie différentielle attachées à cette représentation pour définir une surface régulière, et donc résoudre intrinsèquement les problèmes de continuité ordinairement rencontrés par les représentations paramétriques par morceaux. Nous avons présenté ce modèle dans le cadre des modèles de surfaces d'usage courant en informatique graphique, puis dans le cadre plus théorique de la géométrie différentielle.
Nous avons ensuite proposé la construction d'un tel modèle à partir d'un nuage de points 3D interpolés au préalable par une surface triangulée qui est une variété de dimension 2, connexe et compacte. Cette construction se déroule en trois étapes. Chaque étape rencontre un problème géométrique auquel nous proposons une solution innovante. En particulier, nous avons démontré que le nerf d'un recouvrement bien formé est une triangulation combinatoire. Nous avons également étudié la para métrisation d'une couronne du plan par un C1-difféomorphisme, ainsi que le raccord continu de surfaces par combinaison convexe.
Style APA, Harvard, Vancouver, ISO itp.
46

Hébrard, Agnès. "Étude et réalisation d'un module de pilotage et d'un outil de représentation graphique appliqués à la conception d'un système de production flexible". Lille 1, 1992. http://www.theses.fr/1992LIL10006.

Pełny tekst źródła
Streszczenie:
La conception d'une cellule de production flexible discontinue consiste à mener en parallèle, la conception d'un modèle réseau de Petri orienté produit, et d'un modèle orienté moyens de production qui permet ensuite de mettre en évidence les conflits concernant l'utilisation des ressources. La stratégie que nous proposons dans ce mémoire pour résoudre les conflits concernant l'utilisation des ressources, consiste à les résoudre en temps réel, soit au niveau ordonnancement prévisionnel (cas des machines), soit au niveau pilotage pour les conflits concernant des opérations très courtes (cas des moyens de transport). Pour cela, nous avons développé un algorithme de calcul dynamique des coûts afin d'optimiser les différents itinéraires. Afin de permettre la visualisation de ces différents chemins, et d'apporter une aide pour les phases de description, d'analyse et de simulation du projet CASPAIM, nous avons développé une interface graphique permettant de représenter les différents modèles réseaux de Petri utilisés. Pour pouvoir représenter automatiquement les différents modèles, nous proposons une méthode de positionnement automatique des places d'un réseau de Petri, fondée sur la notion de circuits. Un exemple de dimension industrielle illustre notre approche
Style APA, Harvard, Vancouver, ISO itp.
47

Gaujard, Chrystelle. "La représentation idéaltypique d'un nouveau repère organisationnel en formation : l'agencemen L". Littoral, 2008. http://www.theses.fr/2008DUNK0185.

Pełny tekst źródła
Streszczenie:
Notre recherche porte sur la mise à jour d’un nouveau repère organisationnel, parce que nous soupçonnons un contexte favorable à son émergence. Pour cela, nous avons mobilisé la littérature dédiée, dans un premier temps à la dynamique des organisations, et dans un second temps au mode et au contenu de représentation des organisations. La dynamique des organisations propose la coévolution comme cadre de compréhension parce qu’elle inclut différents moteurs déclenchant l’apparition de nouvelles formes d’organisation. La théorie des organisations laisse apparaître de grands idéaltypes, repères organisationnels, reflétant un agencement spécifique. Dans ces traces, nous avons élaboré une méthodologie de recherche qui repose sur la construction d’un idéaltype, à partir de données qualitatives, auprès des start-up. Il ressort des résultats la formation d’un idéaltype caractérisé par une logique ludique favorisant l’innovation mais également l’apprentissage
This research focuses on the disclosure of a new organizational mark due to a favourable context. To this aim, we have first studied the organizational dynamic and then the method and the content in order to represent organizations. The coevolution offers a framework considering organizations, their populations and their environments as the interdependent outcomes of managerial actions, institutional influences and extra-institutional changes. This theory helps us to understand the evolution and the emergence of new organizational forms. Litterature has captured three different organizational idealtypes as three layout marks. In order to reveal this new idealtype the research methodology relies on an idealtype construction in a qualitative approach within start-ups. This research points out a playidealtype in construction which is promoting innovation and learning in the organization
Style APA, Harvard, Vancouver, ISO itp.
48

He, Xiyan. "Sélection d'espaces de représentation pour la décision en environnement non-stationnaire : application à la segmentation d'images texturées". Troyes, 2009. http://www.theses.fr/2009TROY0027.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système de décision en présence de bruit our de non stationnarité sur les mesures. L'approche proposée consiste à fragmenter l'espace de représentation initial en un ensemble de sous-espaces, puis à prendre la décision à l'aide des sous-espaces qui ne sont pas affectés par les non stationnarités (on parlera alors d'espaces homogènes). Pour cela, nous avons proposé trois approches pour sélectionner des sous-espaces homogènes issus de l'espace initial. L'une, reposant sur un ensemble de classifieurs des PPV, associée à une heuristique visant à sélectionner les sous-espaces générés aléatoirement à partir de l'espace initial. La seconde est basée sur le même principe que la première, mais le mode de génération des sous-espaces n'est plus aléatoire, il se fait via une version adaptée de LASSO. Enfin, nous avons étudié une méthode de sélection de sous-espaces de représentation homogènes via one-class SVM. La segmentation d'images texturées constitue une application tout à fait appropriée pour illustrer nos méthodes et évaluer leurs performances. Les résultats obtenus attestent de la pertinence des approches que nous avons proposées. Nos travaux se sont limités à l'étude des problèmes à deux classes
The objectif of this thesis is to improve or preserve the performance of a decision système in the presence of noise, loss of information or feature non-stationarity. The proposed method consists in first generating an ensemble of feature subspaces from the initial full-dimensional space, and then making the decision by usins only the subspaces which are supposed to be immune to the non-stationary disturbance (we call these subspaces as homogenous subspaces). Based on this idea, we propose three different approaches to make the system decision by using an ensemble of carefully constructed homogenous subspaces. The first approach uses an ensemble of NN classifiers, combined with a heuristic strategy targeting to select the so-called homogeneous feature subspaces among a large number of subspaces that are randomly generated from the initial space. The second approach follows the same principle; however, the geenration of the subspaces is no longer a random process, but is accomplished by using a modified and adaptive LASSO algorithm. Finally, in the third approach, the homogeneous feature subspace selection and the decision are realized by using one-class SVMs. The textured image segmentation constitutes an appropriate application for the evalution of the proposed approaches. The obtained experimental results demonstrate the effectiveness of the three decision systems that we have developed. Finally, it is worthwhile pointing out that all the work presented in this thesis is limited to the two-class classification problem
Style APA, Harvard, Vancouver, ISO itp.
49

Lachiche, Nicolas. "De l'induction confirmatoire à la classification : contribution à l'apprentissage automatique". Nancy 1, 1997. http://docnum.univ-lorraine.fr/public/SCD_T_1997_0267_LACHICHE.pdf.

Pełny tekst źródła
Streszczenie:
La généralisation confirmatoire consiste à déterminer les lois les plus générales confirmées par un ensemble d'observations. L'induction confirmatoire repose sur l'hypothèse des similarités : les individus inconnus se comportent comme les individus connus. Nous montrons qu'une circonscription des individus modélise mieux cette hypothèse qu'une circonscription des propriétés. Nous proposons un modèle capable d'obtenir des clauses plus générales et d'éviter des généralisations indésirables par rapport aux approches existantes. Ce modèle défini en logique des prédicats se spécialise dans le cas propositionnel en un calcul des premiers impliqués. Considérant le problème de la classification, ou classement, d'objets à partir d'exemples, nous montrons que les règles minimales cohérentes et pertinentes ne sont pas, dans le cas général, des généralisations confirmatoires. Nous proposons une nouvelle technique de classification, dite par portée, qui consiste à chercher l'ensemble des exemples à partir desquels une règle cohérente et pertinente peut être construite. Elle a donc une approche à base d'instances de la classification à base de règles. Nous présentons un ensemble d'adaptations des fondements logiques de la classification par portée aux données réelles. Nous étendons également notre technique aux instances généralisées en règles. Les stratégies de généralisation que nous proposons, et surtout la recherche des voisins diffèrent nettement de celles existantes. Nous montrons que, bien que les hypothèses construites diffèrent, notre approche et celle de l'espace des versions disjonctives conduisent au même classement. Notre point de vue original permet cependant de proposer, au delà d'une implantation plus efficace, des développements propres à une approche à base de règles. Notre approche a en moyenne une meilleure précision et un temps d'exécution semblable à ceux les approches les plus utilisées à base d'instances ou à base de règles sur des ensembles de test usuels
Confirmatory generalisation consists in determining the most general laws confirmed by a set of observations. Confirmatory induction is based on the similarity assumption: unknown individuals behave like known individuals. We show that a circumscription of individuals is more appropriate to model this assumption than a circumscription of properties. Compared to existing approaches, the model we propose can produce more general clauses and avoids the production of unwanted generalisations. We specialise this model defined in first-order logic to attribute-value languages and show that it cornes down, in this case, to the calculation of prime implicates. Considering the problem of classification of objects from examples, we show that the minimal consistent and relevant rules are not, in general, confirmatory generalisations. We propose a new classification technique, called scope classification, which consists of building the set of examples from which a consistent and relevant rule can be built, so it is an instance-based approach of rule-based classification. We present several adaptations of the logical basements of the scope classification to better deal with real data. Scope classification is also extended to instances generalised into rules. The generalisation strategies we introduce, and especially the search of the neighbours, clearly differ from those of existing techniques. We show that, whereas hypotheses built by the scope classification and by the disjunctive version space differ, both techniques leads to the same classification. Though, in addition to a more efficient implementation, our original point of view allows us to propose sorne developments specifie to a rule-based approach. Our system obtains on average a better accuracy and a similar execution time to sorne of the most used instance-based or rule-based systems on an usual set of benchmarks
Style APA, Harvard, Vancouver, ISO itp.
50

Renaud-Amsellem, Pascale. "Effets d’aides cognitives langagières sur quelques aspects de la représentation de soi et le processus d’autoévaluation". Caen, 2006. http://www.theses.fr/2006CAEN1465.

Pełny tekst źródła
Streszczenie:
Il s’agit d’une recherche-action dont le projet principal consiste à étudier la construction de la représentation de soi chez des adolescents perturbés et à s’interroger sur une autre façon de penser l’aide psychologique. Cette thèse présente le cheminement méthodologique d’une psychologue clinicienne aux prises avec les contraintes de sa pratique et les problématiques de ces adolescents. A l’origine, les visées du chercheur sont confondues avec les visées du praticien, à savoir contrôler la pertinence d’un outil. Au-delà, ce sont les facteurs susceptibles de faciliter la construction de l’image de soi, et plus fondamentalement les relations entre la structuration cognitive et la structuration de la personnalité qui sont recherchés. Dans un premier temps différents courants théoriques apparaissent porteurs de la légitimation et de la mise en œuvre d’un outil spécifique de remédiation autour des concepts de langage, de représentation de soi et du large champ de l’activité cognitive. Dans un second temps, les jeunes entraînés par cette méthode d’aides cognitives langagières fournissent une autoévaluation qui permet de dégager les effets produits : 1) des aides cognitives ont des incidences positives sur l’évolution de la représentation de soi. Elles ont tendance à améliorer trois composantes de l’Image Propre : l’aptitude à communiquer, l’aptitude à s’organiser et l’intérêt pour la vie sociale. 2) des activations de même nature produisent des effets différentiels en fonction du gen re. 3) une médiation pédagogique, par un professionnel de la psychologie, active la construction du processus d’autoévaluation et facilite la maîtrise des caractéristiques identitaires
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii