To see the other types of publications on this topic, follow the link: Méthodes d'apprentissage de la lecture.

Dissertations / Theses on the topic 'Méthodes d'apprentissage de la lecture'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes d'apprentissage de la lecture.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Doré-Mazars, Karine. "Le fonctionnement du système saccadique pendant la lecture : la programmation de la saccade vers un mot." Paris 5, 1996. http://www.theses.fr/1996PA05H003.

Full text
Abstract:
L'objectif de cette thèse est d'étudier les relations entre la perception du langage et le fonctionnement du système saccadique durant la lecture. En particulier, dans le cas d'une saccade vers un mot situe dans le champ visuel parafoveal, il s'agit de définir le niveau de codage effectue par le système saccadique responsable du calcul de la saccade vers un mot. Les résultats obtenus ont permis de caractériser le decours temporel de l'intégration de l'information dans le mot, depuis les variables perceptives globales jusqu'aux niveaux plus abstraits relatifs aux représentations lexicales. Le niveau d'intégration de l'information parafoveale dépend de la latence de la saccade. A des étapes très précoces, la représentation construite en parafovea est pré-lexicale, la détection d'une séquence irrégulière dévie le calcul du centre de gravité du mot initialement calcule sur les informations de longueur du mot vers les lettres initiales. A des étapes plus avancées, la position d'arrivée de l'œil dans le mot dépend de l'information lexicale extraite des lettres initiales du mot. Ces travaux remettent en cause la notion selon laquelle l'amplitude de la saccade dépendrait essentiellement des propriétés globales de bas-niveau des mots et non des processus de construction des représentations qui prennent place pendant la lecture. Ils montrent comment les différents niveaux de codage effectues sur des stimuli linguistiques influencent la programmation de la saccade
The goal of this thesis is to study the relationships between language perception and saccade computation during reading. In particular, we try to demonstrate how different integration levels of word information influence landing position in isolated words. The results illustrate the time course of word-information integration, starting with physical variables, until abstract variables such as lexical representation. The level of word information integration depends on saccade latency. In the earlier phases, representation in parafoveal vision is pre-lexical : orthographic irregularities modify the center of gravity of the word, initially determined by the word length. In the later phases, the landing position depends on the lexical information carried by the initial letters of the word that is presented in parafoveal vision. This work shows that landing position in words is a function of word global properties and also depends on the orthographic and lexical properties of linguistic stimuli
APA, Harvard, Vancouver, ISO, and other styles
2

Maisonneuve, Luc. "Apprentissage de la lecture : méthodes et manuels." Rennes 2, 2001. http://www.theses.fr/2001REN20003.

Full text
Abstract:
Cette recherche porte sur l'analyse des onze manuels d'apprentissage de la lecture les plus vendus en France en 1999. Méthode et objectifs : à travers l'analyse du fonctionnement pédagogique et des références scientifiques et/ou empiriques de ces onze manuels d'apprentissage de la lecture : comprendre leur succès ; observer comment ils prennent en compte et concilient aspects pédagogiques, résultats de la recherche, textes officiels et impératifs économiques. Première partie : Faire le point sur l'apprentissage de la lecture. Qu'est-ce-que lire? (description actuelle, brève appproche historique), les savoirs en place (apprendre à parler, le débat sur les pré-requis-conscience phonologique, connaissances sur la langue écrite, lexique) ; le rapport au savoir (différences culturelles, "effet maître") ; apprendre à lire? (principaux modèles actuels, relations lecture/écriture, problèmes rencontrés lors de cet apprentissage). Deuxième partie ; les différentes méthodes de lecture (les méthodes et non les manuels) ; la place de la formation initiale et continue dans la formation des maîtres. Troisième partie : analyse des onze manuels retenus suivant quatre axes : définitions et références sur l'acte de lire et son apprentissage, objectifs et évaluations proposés par chacun (guides pédagogiques, livres du maître) ; organisation pédagogique, aspects sémantiques et axiologiques (livres, cahiers de l'élève). Résultats : Si, sur les raisons du succès de ces onze manuels, la recherche ne peut faire que des conjectures : importance de l'appareil pédagogique, absence de formation, routine, relation aux familles, etc. ; en revanche, elle met en relief, malgré des conceptions affichées parfois très différentes, une grande similitude de fonctionnement : "leçons" de lecture stéréotypées, absence de définition de l'acte de lire, objectifs non précisés, retrait de l'action magistrale et du texte, recours constant au jeu, rôle primordial de l'illustration
@This research focuses on the analysis of the eleven learning to read textbooks the most sold in France in 1999. Method and objectives : through the analysis of the pedagogical approach and the scientific and/or empirical rationale opf these eleven learning to read textbooks, this research aims at understanding their success by finding out how the take into account and reconcile pedagogical aspects, research findings, official guide-lines and economic constraints. Part one : A review of learning to read. What does reading mean ? (current description, brief historical account), existing konwledge (learning to speak, the debate about-pre-requisites- phonological conscience, knowledge about the written language, vocabulary) ; the relationship to learning (cultural differences, teacher effect) ; learning to read ? (main current models, reading-writting relations, learning problems). Part two : the various methodologi cal approaches to learning to read ; the role of initial and in-service training in teacher education. Part three ; analysis of the selected eleven textbooks from four angles : definitions and references about reading and learning to read, aims and assessment (pedagogical guide-lines and teacher books) teaching approach, semantic and axiological (pupil's books, exercise-books). Results ; If, on the one hand, this research can only make conjectures about the reasons of the success of these eleven textbooks (importance of the pedagogical aids, lack of training, routine, relationship with families), then the other hand, it evinces large similarities in the teachning approaches (in spite of the sometimes widely differing conceptions put forward) : stereotyped reading lessons, lack of definition of the reading act, absence of aims, teachers and texts no longer in the foreground, constant use of games, key role of pictures
APA, Harvard, Vancouver, ISO, and other styles
3

Juanéda-Albarède, Christiane. "L'enfant et l'apprentissage de la lecture en France, au XIXe siècle : lecture et compréhension." Paris 5, 1990. http://www.theses.fr/1990PA05H070.

Full text
Abstract:
Plusieurs centaines de méthodes de lecture élaborées en France, au XIXe siècle| comment expliquer ce phénomène? Facteurs politiques, socio-économiques, psychologiques et humaine se conjuguent pour aboutir à cette générale d'améliorer les pratiques. A cote des moyens proposes, considères par certains pédagogues comme des procèdes, quelques auteurs proposent des modifications plus profondes relatives aux méthodes elles-mêmes. C’est ainsi que M. A. Peigne, en soulignant l'intérêt de la compréhension dès le début de l'apprentissage, provoque ce que Prost qualifie de "révolution" pédagogique. Au XVIIIe siècle déjà, la méthode des "mots entiers" de N. Adam privilégiait la compréhension, mais elle était destinée aux éducations préfectorales, alors qu'avec peigne. En 1831, ces idées sont diffusées en faveur de la masse des enfants scolarisés. Précédant peigne de quelques années, deux auteurs de manuels, Gorgeret et Jacotot, avaient repris la conception des "mots entiers"; leurs méthodes n'ont pas été adoptées, bon nombre de manuels, tout au long du siècle, privilégient, a des degrés divers, la compréhension de la lecture, mais neuf seulement sur les 562 répertories partent des mots entiers dès le début de l'apprentissage. Ainsi une double "révolution" se produit au xix siècle dans la pédagogie de la lecture, l'une qui parait néanmoins en accord avec les conditions d'exercice, l'autre qui bouleverse les idées et les pratiques admises. Si cette démarche des "mots entiers" n'entre pas dans les mœurs pédagogiques de xix siècle, l'idée chemine et ressurgit au siècle suivant avec une diffusion de plus en plus large
Hundreds of reading methods were conceived in France in the 19th century| how can we explain this phenomenon? There are political, economical and social factors as well as psychological and human ones which explain this widespread desire to improve the current practices beside ways considered by some as means, some authors suggest more important changes of the methods themselves. M. A. Peigne, for instance, emphasizing the fact that understanding what he reads is fundamental for a child, provokes what prost qualifies as a pedagogical "revolution" but in the 18th century, N. Adam's method of "mots entiers" gave importance to the notion that a child must understand what he reads. Nevertheless, such a method was reserved to private tutoring whereas with Peigne. In 1831, those ideas are applied to all school children. A few years before Peigne, two authors, orgeret and jacotot had used the theory of "mots entiers" a high number of methods throughout the 19th century give to a certain extent , an important place to reading and understanding but only nime of them among the 562 listed begin by "mots entiers" from the very first lessons. On the one hand peigne's method and on the other hand the analytic methods, a double "revolution" in the 19th century occurs in reading practises, one seems to be adapted to the teaching of read. In of that period, the other totally modify the current practises. Though the methoddology of "mots entiers" does not become current practise. The idea makes it way
APA, Harvard, Vancouver, ISO, and other styles
4

Devaux, Jean-Michel. "Acquisition de la lecture : du maître à l'élève : représentation des maitres du cycle 2 sur la lecture et pratiques rémédiatives." Nantes, 2001. http://www.theses.fr/2001NANT3011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Viriot-Goeldel, Caroline. "Aider l'apprenti lecteur en difficulté à l'école primaire : une perspective comparée : essai d'analyse théorique et praxéologique des processus d'aide dans les classes de l'enseignement primaire en France, au Québec et dans le Bade-Wurtemberg." Lyon 2, 2006. http://theses.univ-lyon2.fr/documents/lyon2/2006/viriot-goeldel_c.

Full text
Abstract:
Cette recherche propose une réflexion sur le thème de l'aide à l'apprenti-lecteur en difficulté dans une perspective comparée. Elle analyse les parcours scolaires d'élèves de première et deuxième année d'école primaire, en France, au Québec et dans le Bade-Wurtemberg à partir d'entretiens semi-directifs avec leurs enseignants et d'observations de séances de soutien en lecture. La comparaison des modalités de détection des difficultés de lecture, des dispositifs de soutien et des approches didactiques observés permet d'esquisser les contours de réponses pédagogiques cohérentes aux difficultés d'apprentissage de la lecture
This research follows the curriculum of first and second-grade classes in France, Germany (Baden-Württemberg) and Canada (Quebec) through regular interviews with their teachers and observation in reading remedial instruction. It analyses the detection of reading difficulties and the development of reading recovery programs from an organisational as well as from a didactical point of view. The comparison of the different strategies allows the discovery of strengths and weaknesses of each school system and suggests appropriate responses to effective intervention
APA, Harvard, Vancouver, ISO, and other styles
6

Guimarães, Thomazi Aurea Regina. "L'enseignant de l'école élémentaire et le curriculum de la lecture : enquête à Belo Horizonte (Brésil)." Paris 5, 2005. http://www.theses.fr/2005PA05H012.

Full text
Abstract:
Cette recherche a comme objet les pratiques de lecture développées par les enseignants, à l'école primaire, au Brésil. Nous cherchons à connaître les possibilités de formation du lecteur à l'école, et nous centrons notre analyse sur la construction du curriculum de la lecture par chaque enseignant, à partir de leurs déclarations à propos des types de textes utilisés, des activitées développées dans la salle de classe et dans la bibliothèque de classe ou d'école. Nous analysons, ensuite, d'autres aspects concernant l'enseignant : sa formation, ses convictions pour former une élève lecteur, sa journée de travail, son planning et surtout son rapport personnel avec la lecture, dans l'enfance, dans la jeunesse et aujourd'hui. Notre référentiel théorique s'appuie sur la sociologie des enseignants, la sociologie du curriculum et la sociologie de la lecture. La méthodologie est fondée sur des entretiens, des questionnaires et des documents, traités par l'analyse de contenu
This research paper is aimed at the reading practices developed by teachers, preliminary school, in Brazil. We try to know the possibilities of reader formation at school and we focus our analysis on the making up of a reading curriculum for every teacher, based upon their declarations concerning the types of texts they use, activities engaged at the classrooms and at the library of the class or school. We then analyse other aspects concerning the teacher : his background, his beliefs in shaping a student reader, his workday, his planning, and above all his personal relationship with reading, at childhood, as a teenager and today. Or theoretical framework is based on the sociology of teachers, the sociology of curriculum and the sociology of reading. The methodology is grounded on interviews, answers to written questions and documents, handled through content analysis
APA, Harvard, Vancouver, ISO, and other styles
7

Delpierre-Sahuc, Marie-Elisabeth. "De l'apprenti-lecteur au producteur habile : méthode de lecture et orthographe : quels liens?" Paris 3, 2008. http://www.theses.fr/2008PA030020.

Full text
Abstract:
Une corrélation entre les performances à l’écrit d’élèves de classes primaires et la méthode de lecture suivie au CP a été mise en évidence en 2000 (DEA). L’objectif de la recherche est de confirmer cette influence et de décrire l’installation des automatismes de l’écriture et l’évolution des procédures psycho-cognitives indispensables au traitement de l’écrit, en lecture et en orthographe. Le suivi longitudinal d’élèves, du CP au CM2, montre que l’enseignement reçu au CP peut agir sur l’installation des procédures de traitement de l’écrit et sur les performances des jeunes lecteurs et producteurs. Certains types d’erreurs, en dictée, en copie et en rédaction, sont repérables jusqu’au CM2. Trois méthodes sont observées, la méthode des dictées muettes inspirées de M. Montessori, la méthode Naturelle de C. Freinet et le Protocole AFL, différentes dans leur ancrage théorique, pédagogique et linguistique. Elles sont comparées aux démarches mixtes, analytiques et synthétiques. Les résultats montrent que certains enseignements sont essentiels comme celui du code grapho-phonologique, fondateur des habiletés en lecture et facilitateur de la maîtrise du code orthographique. L’étude souligne un effet « pratique de maître » pour les démarches mixtes limitées à l’enseignement de la lecture au CP et un effet « méthode » pour les démarches organisées sur l’ensemble des trois cycles. Les résultats mettent en évidence la nécessité d’une fréquentation efficace des textes, pour favoriser les habiletés à rédiger. Les tendances observées soulignent un effet moindre du milieu socioculturel sur les performances des cohortes qui ont reçu un enseignement des correspondances GP
A correlation between the writing performance of elementary classes’ students and the reading method used in the “CP” class was underlined in 2000 (Master’s study). The purpose of the present research is to confirm this impact and to describe the development of writing automatisms and psycho-cognitive process evolution, which are both essential for the writing processing, in reading and spelling. The students’ longitudinal follow up, from the CP to the CM2, shows that the CP teaching may have a positive impact on establishing the writing processes and the performances of young readers and writers. Certain types of errors in dictation, copy work and essay can be observed until the CM2. Three methods have been analysed: the “dumb dictations” inspired by M. Montessori, the Freinet Natural method and the AFL Protocol, which differ in their theoretical, educational and linguistic bases. They are compared with the mixed, analytic and synthetic approaches. The results show that one of the essential teachings is the teaching of the grapho-phonological code, which settles reading skills and facilitates the control of spelling set of rules. The research underlines a “teacher’s practice” effect for the mixed methods restricted to reading’s teaching in the CP class and a “method” effect for those approaches which organize the teaching on all three cycles of primary school. The results show the necessity of an efficient textual activity, in order to develop the writing skills. The observed trends show a less effect of the socio-cultural environment on the performances of those cohorts which have received a phonologically based learning of letter-sound rules
APA, Harvard, Vancouver, ISO, and other styles
8

Haidar, Rouba. "Élaboration et test d’un programme de remédiation aux difficultés en lecture au Cours Préparatoire." Thesis, Mulhouse, 2015. http://www.theses.fr/2015MULH5951/document.

Full text
Abstract:
Le premier objectif de notre étude, menée auprès de classes de cours préparatoire, est de détecter les compétences les moins maîtrisées liées à l’identification des mots et à la compréhension d’un texte, à partir d’une grille d’observation des compétences de base mises en place au CP par le ministère de l’Éducation. Le second objectif est d’élaborer et de tester l’efficacité d’un programme de remédiation basé sur des entraînements de processus d’apprentissage de la lecture en CP et de compréhension de textes (l’anaphore et l’inférence), adaptés à des enfants en difficultés âgés de 6 ans. Le nombre d'élèves ayant participé est de 61 : 42 élèves de deux groupes expérimentaux et 19 élèves d'un groupe témoin. Notre recherche a montré que d’une part, les deux groupes expérimentaux d’élèves progressent mieux que le groupe témoin pour 8 compétences sur 10. D’autre part, les progrès réalisés par les élèves ont été maintenus sur la durée et le programme de remédiation s'est révélé efficace autant pour les filles que pour les garçons
Our first objective in this study, carried out with Year 2 pupils, was to identify the least well- mastered skills relating to the identification of words and the comprehension of a text using a grid of basic skills established by the Ministry of Education. The second objective was to create and test the effectiveness of a remedial program based on training in the process of learning to read in Year 2, and reading comprehension skills (anaphora and inference) adapted for six-year-old pupils with difficulties. The number of pupils taking part in the study was 61: 42 in the two trial groups and 19 in the control group. Our study showed that on the one hand, students the students in the two trial groups made better progress than the control group in 8 out of the 10 skills. On the other hand, progress made by pupils lasted over a period of time and the intervention program showed itself to be equally successful for girls as for boys
APA, Harvard, Vancouver, ISO, and other styles
9

Gaguet, Laurent. "Attitudes mentales et planification en intelligence artificielle : modélisation d'un agent rationnel dans un environnement multi-agents." Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF20023.

Full text
Abstract:
L'objectif de cette thèse est d'élaborer un modèle d'agent rationnel capable de planifier ses comportements à partir de ses attitudes mentales. Ce modèle doit permettre de spécifier un agent particulier du système multi-agents développé dans le cadre du projet AMICAL sur l'étude et le développement d'environnements informatiques d'aide à l'apprentissage de la lecture. Après avoir présenté différents aspects de la modélisation des agents dans les approches existantes, nous abordons plus particulièrement le rôle que peuvent jouer les attitudes mentales dans le comportement et la manière dont un plan d'actions peut être conçu comme un processus mental. Ces principes permettent de définir les notions qui sont modélisées par la suite, qui portent sur le raisonnement dont l'agent dispose pour adopter des objectifs, actualiser son état mental et délibérer sur celui-ci afin de planifier ses comportements futurs ou agir dans son environnement. Les représentations utilisées et produites par l'agent au cours du raisonnement regroupent d'une part ses connaissances opératoires en planification et sur son domaine d'expertise, et d'autre part ses différentes composantes mentales. La modélisation de ces différentes notions permet ensuite de spécifier, sous une forme algorithmique, les différents processus internes que l'agent met en oeuvre au cours d'un cycle comportemental pour atteindre des objectifs sur un domaine d'expertise. Ce modèle d'agent est ensuite validé à partir d'exemples de fonctionnement sur des connaissances opératoires types. Nous montrons notamment comment les différentes composantes mentales de l'agent évoluent au cours du raisonnement. Pour finir, nous abordons les principes d'une opérationalisation du modèle d'agent dans AMICAL, et nous situons les apports et les perspectives de cette approche par rapport aux enjeux qui ont été définis au début de l'étude
APA, Harvard, Vancouver, ISO, and other styles
10

Vinter, Patricia. "Est-il possible et souhaitable d’enseigner la technique de la lecture indépendamment de sa finalité ? : elaboration d'une méthode de lecture qui différencie le décodage de la compréhension en phase d’apprentissage explicite et sa mise à l'épreuve en éducation prioritaire." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO20002.

Full text
Abstract:
L’échec scolaire ne cesse d’augmenter de même que l’écart entre les élèves les plus faibles et les plus performants (PISA 2003, 2006, 2009, 2012). Lire est une activité complexe qui nécessite la maîtrise conjointe de deux compétences, identifier des mots et comprendre ce qui est écrit. L’identification des mots est la première cause de difficulté : ce code qui lie l’oral à l’écrit repose sur des conventions non perçues par les élèves non encore capables d’accéder aux symboles. Nous avons élaboré un dispositif nouveau pour expliquer aux élèves le rapport entre la syllabe orale et la syllabe écrite : une représentation du système d’écriture et un matériel de manipulation des phonogrammes. Pour cela nous avons inclus une étape supplémentaire au sein d’une méthode de lecture et l’écriture, l’identification de pseudo-mots, c’est-à-dire de signifiés sans signifiants. Afin de ne pas négliger la compréhension en début d’apprentissage, des récits sont entendus. Ils sont extraits d’un album en 30 chapitres où l’héroïne, une petite sorcière, donne du sens aux pseudo-mots avec ses formules magiques. En phase d’entraînement, le mot prend sa place dans des activités diverses de lecture – identification et compréhension – et d’écriture. L’expérimentation a produit les effets attendus chez des élèves tout venants de Cours préparatoire en Zone d’éducation prioritaire en identification et production de mots, sans effet négatif dans les autres domaines de l’écrit
School failure continues to increase in France, as well as the gap between the lowest and highest performing pupils (PISA 2003, 2006, 2009, 2012). Reading is a complex activity that requires mastering conjointly two skills, word identification and meaning understanding. Word identification is the main cause of reading difficulty: the code that binds oral and written information must be understood as being based on conventions, and the pupils who cannot access to symbols encounter difficulties in this understanding. In the present work, we have developed a new learning device that makes clear to children the relationships between oral and written syllables. This device comprises a representation of the writing system and material that enables to manipulate phonogrammes. To this end, we have included an additional step within a reading and writing method, the identification of pseudo-words, that is to say, of “signifieds” (plausible words) without “signifiers” (no corresponding referee or meaning). In order not to neglect the understanding dimension at the beginning of the learning phase, oral stories were presented to the children. They were extracted from an album of 30 chapters in which the heroine, a young witch, attributes meaning to these pseudo-words through her magic spells. In the training phase, the pseudo-words (associated with its signifier) are presented inside various reading - identification and understanding - and writing activities. Our specific training had the expected positive effects in unselected grade 1 elementary pupils from areas of prioritary education. These effects concerned mainly the identification and production of words, without adverse effects in other aspects of writing
APA, Harvard, Vancouver, ISO, and other styles
11

Navarro, Marion. "Utilisation de la tablette digitale pour réduire les difficultés dans l'apprentissage de la lecture." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2088.

Full text
Abstract:
L'objectif principal de ce travail de thèse est de discuter de la place de la tablette tactile dans un dispositif d'enseignement adapté et ciblé auprès d'enfants détectés à risque de difficultés ultérieures en lecture. Pour répondre à cet objectif et après avoir étayé notre propos avec les résultats de la littérature scientifique, deux axes sont présentés. Un axe expérimental, composé de trois études, nous a permis de mesurer l’impact d’un entrainement spécifique intensif et individuel, via la tablette tactile, sur les performances en identification de mots écrits d’élèves de GSM et de CP faibles (pré)lecteurs. Plus précisément, les résultats du suivi longitudinal des élèves susmentionnés à court et moyen termes semblent aller en faveur d’une amélioration de la conscience phonologique et du traitement grapho-syllabique. Le second axe s’attachait à mettre en lumière l’importance des critères ergonomiques de développement de deux applications ludo-éducatives. Les résultats des évaluations subjectives permettent d’identifier les points nécessitant un travail supplémentaire, ces points pouvant entraver le traitement d’informations cruciales pour l’apprentissage de la lecture
The main objective of this thesis work is to discuss the place of the touch-screen tablet in an adapted and targeted teaching system with children detected at risk of subsequent difficulties in reading. To meet this objective, we have presented two main axes, based on the results of the scientific literature. An experimental axis, made up of three studies, allowed us to measure the impact of a specific intensive and individual training, via the touch-screen tablet, on the performances in written words identification of poor (pre)readers in Kindergarten and First Grade. More precisely, the results of the longitudinal follow-up of the aforementioned students seem to be in favor of an improvement of the phonological awareness and the grapho-syllabic treatment. The second axis aims to highlight the importance of ergonomic criteria for the development of two edutainment apps. The results of the subjective evaluations identify points that requiring additional work, which may hinder the processing of crucial information for the learning of reading
APA, Harvard, Vancouver, ISO, and other styles
12

Cléder, Catherine. "Planification didactique et construction de l'objectif d'une session de travail individualisée : modélisation des connaissances et du raisonnement mis en jeu." Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF20019.

Full text
Abstract:
Le problème posé est celui d'une planification didactique individualisée dans un système tutoriel intelligent. Le travail s'est effectué dans le cadre du projet AMICAL, Architecture Multi-Agents Interactive, Compagnon pour l'Apprentissage de la Lecture. Nous nous proposons une modélisation des étapes de raisonnement pour construire l'objectif d'une session de travail, premier objet de la planification didactique. Ce raisonnement s'appuie sur cinq bases de connaissances : linguistique, savoir-faire lecture, didactique, pédagogique, et représentation de l'élève. Pour chacune de ces bases, nous proposons aussi des éléments de modélisation. Dans AMICAL, la planification est à la charge d'un agent rationnel spécifique, ainsi, nous proposons une caractérisation de l'agent de construction de l'objectif. Ces différentes hypothèses ont été opérationnalisées pour partie, dans un prototype que nous présentons dans le premier chapitre
APA, Harvard, Vancouver, ISO, and other styles
13

Pélissier, Chrysta. "Fonctionnalités et méthodologie de conception d'un module de type ressource : application dans un environnement informatique d'aide à l'apprentissage de la lecture." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2002. http://tel.archives-ouvertes.fr/tel-00661571.

Full text
Abstract:
L'objectif de cette thèse est de présenter les fonctionnalités et une méthodologie de conception associées à un module de type ressource dans un environnement informatique dédié à l'apprentissage d'un domaine. Nous nous sommes plus particulièrement intéressée au domaine de l'apprentissage de la lecture. D'une part nous présentons les différentes problématiques qui se posent dans le cadre de la conception de ce type de module et d'autre part, nous les illustrons par des exemples et la réalisation d'un premier prototype informatique, le Module Ressource Lexical (MRL). Dans un premier chapitre, nous décrivons le cadre dans lequel se situe notre recherche, le projet AMICAL (Architecture Multi-agents Compagnon pour l'Apprentissage de la Lecture) du Laboratoire de Recherche sur le Langage. Ensuite, nous positionnons le MRL par rapport aux dictionnaires pour enfants, commercialisés aujourd'hui. Puis, dans les chapitres 3, 4 et 5 nous présentons les problèmes liés à la conception de ce type de module. Le chapitre 3 présente plus particulièrement les problèmes liés aux informations associées à chaque unité lexicale dans le module ainsi qu'à leur mode de présentation. Dans le chapitre 4, nous abordons les problèmes liés à l'accès au contenu du module, c'est-à-dire aux modes de sélection d'une unité lexicale, à la navigation et au guidage de l'apprenant lors de la consultation. Dans le chapitre 5, nous décrivons l'architecture informatique associée à ce type de module et enfin, dans un dernier chapitre, nous présentons des éléments liés à la spécification et à l'implémentation d'un premier prototype informatique du MRL
APA, Harvard, Vancouver, ISO, and other styles
14

Depecker, Marine. "Méthodes d'apprentissage statistique pour le scoring." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00572421.

Full text
Abstract:
Cette thèse porte sur le développement d'une méthode non-paramétrique pour l'apprentissage supervisé de règles d'ordonnancement à partir de données étiquetées de façon binaire. Cette méthode repose sur le partitionnement récursif de l'espace des observations et généralise la notion d'arbre de décision au problème de l'ordonnancement, les règles de score produites pouvant être représentées graphiquement par des arbres binaires et orientés. Afin de proposer une méthode d'apprentissage flexible, nous introduisons une procédure permettant, à chaque itération de l'algorithme, de scinder l'espace des observations selon diverses règles, adaptatives et complexes, choisies en fonction du problème considéré. De plus, pour lutter contre le phénomène de sur-apprentissage, nous proposons deux procédures de sélection de modèle, fondées sur la maximisation de l'ASC empirique pénalisée par une mesure de la complexité du modèle. Enfin, dans le but de réduire l'instabilité des arbres d'ordonnancement, inhérente à leur mode de construction, nous adaptons deux procédures d'agrégation de règles de prédiction ré-échantillonnées : le bagging (Breiman, 1996) et les forêts aléatoires (Random Forests, Breiman, 2001). Une étude empirique comparative entre différentes configurations de l'algorithme et quelques méthodes de l'état de l'art est présentée, ainsi que l'application à la problématique industrielle de l'objectivation des prestations d'un véhicule automobile. De plus, nous exploitons cette méthode de scoring pour introduire une heuristique de test d'homogénéité entre deux populations, permettant de généraliser les tests de rangs au cas multi-dimensionnel.
APA, Harvard, Vancouver, ISO, and other styles
15

Kopinski, Thomas. "Méthodes d'apprentissage pour l'interaction homme-machine." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY002/document.

Full text
Abstract:
Cette thèse a pour but d'améliorer la tâche de reconnaître des gestes de main en utilisant des techniques d'apprentissage par ordinateur et de traitement du signal. Les principales contributions de la thèse sont dédiés à la théorie de l'apprentissage par ordinateur et à l'interaction homme-machine. L'objectif étant d'implanter toutes méthodes en temps réel, toute méthode employé au cours de cette thèse était un compromis entre puissance et temps de calcul nécessaire.Plusieurs pistes ont été poursuivi : au début, la fusion des informations fournies par plusieurs capteurs tu type « time-of-flight » a été étudiée, dans le but d'améliorer le taux de reconnaissances correctes par rapport au cas avec un seul capteur. En particulier, l'impact des différentes caractéristiques calculés à partir d'une nuage de points, et de ses paramètres, a été évalué. Egalement, la performance des réseaux multi-couches (MLP) à été comparé avec celle d'un séparateur à vaste marge (SVM).En s'appuyant sur ces résultats, l'implantation du système dans une voiture a eté effectuée. Tout d'abord, nous avons montré que le système n'est pas du tout gêné par le fait d'être exposé aux conditions d'éclairage « outdoor ». L'extension de la base d'entraînement et une modification des caractéristiques calculé de la nuage des points a pu augmenter le taux de bonnes reconnaissances de façon très significative, ainsi que le rajout des mesures de confiance à la classification.Afin d'améliorer la performance des classifieurs à la base des réseaux multi-couche (MLP), une nouvelle méthode assez simple a été mise au point ensuite. Cette méthode met au profit des informations déjà présentes dans la dernière couche du réseau. En combinant cette nouvelle approche avec une technique de fusion, le taux de bonnes reconnaissances est amélioré, et surtout pour le cas des échantillons « difficiles ». Ces résultats ont été analysés et comparés de façon approfondie en comparant des différentes possibilités de fusion dans un tel contexte. L'exploitation du fait que les données traitées dont des séquences, et qu'il y a par conséquent une cohérence temporelle dans des échantillons successifs, a également été abordée un utilisant les mêmes techniques de fusion. Un système de « infotainment » implanté sur un smartphone, qui utilise les techniques décrites ici, a également été réalisé.Dans un dernier temps, un modèle simplifié de la reconnaissance des gestes dynamiques a été proposé et validé dans un contexte applicatif. Il a été montré que un geste peut être défini de façon assez robuste par une pose initiale et une pose finale, qui sont classé par le système décrit ci-dessus
This thesis aims at improving the complex task of hand gesture recognition by utilizing machine learning techniques to learn from features calculated from 3D point cloud data. The main contributions of this work are embedded in the domains of machine learning and in the human-machine interaction. Since the goal is to demonstrate that a robust real-time capable system can be set up which provides a supportive means of interaction, the methods researched have to be light-weight in the sense that descriptivity balances itself with the calculation overhead needed to, in fact, remain real-time capable. To this end several approaches were tested:Initially the fusion of multiple ToF-sensors to improve the overall recognition rate was researched. It is examined, how employing more than one sensor can significantly boost recognition results in especially difficult cases and get a first grasp on the influence of the descriptors for this task as well as the influence of the choice of parameters on the calculation of the descriptor. The performance of MLPs with standard parameters is compared with the performance of SVMs for which the parameters have been obtained via grid search.Building on these results, the integration of the system into the car interior is shown. It is demonstrated how such a system can easily be integrated into an outdoor environment subject to strongly varying lighting conditions without the need for tedious calibration procedures. Furthermore the introduction of a modified light-weight version of the descriptor coupled with an extended database significantly boosts the frame rate for the whole recognition pipeline. Lastly the introduction of confidence measures for the output of the MLPs allows for more stable classification results and gives an insight on the innate challenges of this multiclass problem in general.In order to improve the classification performance of the MLPs without the need for sophisticated algorithm design or extensive parameter search a simple method is proposed which makes use of the existing recognition routines by exploiting information already present in the output neurons of the MLPs. A simple fusion technique is proposed which combines descriptor features with neuron confidences coming from a previously trained net and proves that augmented results can be achieved in nearly all cases for problem classes and individuals respectively.These findings are analyzed in-depth on a more theoretical scale by comparing the effectiveness of learning solely on neural activities in the output layer with the previously introduced fusion approach. In order to take into account temporal information, the thesis describes a possible approach on how to exploit the fact that we are dealing with a problem within which data is processed in a sequential manner and therefore problem-specific information can be taken into account. This approach classifies a hand pose by fusing descriptor features with neural activities coming from previous time steps and lays the ground work for the following section of making the transition towards dynamic hand gestures. Furthermore an infotainment system realized on a mobile device is introduced and coupled with the preprocessing and recognition module which in turn is integrated into an automotive setting demonstrating a possible testing environment for a gesture recognition system.In order to extend the developed system to allow for dynamic hand gesture interaction a simplified approach is proposed. This approach demonstrates that recognition of dynamic hand gesture sequences can be achieved with the simple definition of a starting and an ending pose based on a recognition module working with sufficient accuracy and even allowing for relaxed restrictions in terms of defining the parameters for such a sequence
APA, Harvard, Vancouver, ISO, and other styles
16

DUPEYRON, JURADO SOPHIE. "Les difficultes d'apprentissage de la lecture : approche psychopathologique." Amiens, 1994. http://www.theses.fr/1994AMIEM038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Kanj, Sawsan. "Méthodes d'apprentissage pour la classification multi label." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2076.

Full text
Abstract:
La classification multi-label est une extension de la classification traditionnelle dans laquelle les classes ne sont pas mutuellement exclusives, chaque individu pouvant appartenir à plusieurs classes simultanément. Ce type de classification est requis par un grand nombre d’applications actuelles telles que la classification d’images et l’annotation de vidéos. Le principal objectif de cette thèse est la proposition de nouvelles méthodes pour répondre au problème de classification multi-label. La première partie de cette thèse s’intéresse au problème d’apprentissage multi-label dans le cadre des fonctions de croyance. Nous développons une méthode capable de tenir compte des corrélations entre les différentes classes et de classer les individus en utilisant le formalisme de représentation de l’incertitude pour les variables multi-valuées. La deuxième partie aborde le problème de l’édition des bases d’apprentissage pour la classification multi-label. Nous proposons un algorithme basé sur l’approche des k-plus proches voisins qui permet de détecter les exemples erronés dans l’ensemble d’apprentissage. Des expérimentations menées sur des jeux de données synthétiques et réelles montrent l’intérêt des approches étudiées
Multi-label classification is an extension of traditional single-label classification, where classes are not mutually exclusive, and each example can be assigned by several classes simultaneously . It is encountered in various modern applications such as scene classification and video annotation. the main objective of this thesis is the development of new techniques to adress the problem of multi-label classification that achieves promising classification performance. the first part of this manuscript studies the problem of multi-label classification in the context of the theory of belief functions. We propose a multi-label learning method that is able to take into account relationships between labels ant to classify new instances using the formalism of representation of uncertainty for set-valued variables. The second part deals withe the problem of prototype selection in the framework of multi-label learning. We propose an editing algorithm based on the k-nearest neighbor rule in order to purify training dataset and improve the performances of multi-label classification algorithms. Experimental results on synthetic and real-world datasets show the effectiveness of our approaches
APA, Harvard, Vancouver, ISO, and other styles
18

Condevaux, Charles. "Méthodes d'apprentissage automatique pour l'analyse de corpus jurisprudentiels." Thesis, Nîmes, 2021. http://www.theses.fr/2021NIME0008.

Full text
Abstract:
Les décisions de justice contiennent des informations déterministes (dont le contenu est récurrent d'une décision à une autre) et des informations aléatoires (à caractère probabiliste). Ces deux types d'information rentrent en ligne de compte dans la prise de décision d’un juge. Les premières peuvent la conforter dans la mesure où l’information déterministe est un élément récurrent et bien connu de la jurisprudence (i.e. des résultats d’affaires passées). Les secondes, apparentées à des caractères rares ou exceptionnels, peuvent rendre la prise de décision difficile et peuvent elles-mêmes modifier la jurisprudence. L’objet de cette thèse est de proposer un modèle d’apprentissage profond mettant en évidence ces deux types d’information afin d’en étudier leur impact (contribution) dans la prise de décision d’un juge. L'objectif est d’analyser des décisions similaires, de mettre en évidence les informations aléatoires et déterministes dans un corpus de décisions et de quantifier leur importance dans le processus de jugement
Judicial decisions contain deterministic information (whose content is recurrent from one decision to another) and random information (probabilistic). Both types of information come into play in a judge's decision-making process. The former can reinforce the decision insofar as deterministic information is a recurring and well-known element of case law (ie past business results). The latter, which are related to rare or exceptional characters, can make decision-making difficult, since they can modify the case law. The purpose of this thesis is to propose a deep learning model that would highlight these two types of information and study their impact (contribution) in the judge’s decision-making process. The objective is to analyze similar decisions in order to highlight random and deterministic information in a body of decisions and quantify their importance in the judgment process
APA, Harvard, Vancouver, ISO, and other styles
19

Spinel, William. "Contribution au repérage précoce des troubles d'apprentissage de la lecture." La Réunion, 2006. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/06_01-spinel.pdf.

Full text
Abstract:
L'objet principal de l'étude était de vérifier l'existence d'une éventuelle corrélation entre le niveau de conscience phonologique évalué en grande section de maternelle et les performances en transcription l'année suivante, en fin de cours préparatoire. Dans ce but, il a été procédé au suivi sur trois années d'une cohorte de plus de soixante enfants scolarisés dans une école privé du centre- ville de Saint-André (ile de la Réunion) en procédant notamment, d'une part à une évaluation du niveau de conscience phonologique en grande section de maternelle en novembre 2001 et février 2002, et d'autre part, à une évaluation du niveau de transcription de la même population en fin de cours préparatoire en juin 2003. La corrélation entre les deux variables étudiées s'est révélée être statistiquement significative. Ainsi, le score obtenu à l'épreuve de conscience phonologique globale en grande section de maternelle s'avère être un bon prédicteur de la performance mesurée aux épreuves de transcription au cours préparatoire. L'acceptabilité des épreuves a été très bonne et, par suite, les épreuves choisies pourraient se révéler utiles en vue de la détection précoce et de la prévention de possibles troubles de la lecture et de l'orthographe
The main purpose of this study was to put to the test a possible correlation between the level of phonological conscience evaluated in great section of nursery school and the performance in a transcription task one year later, at the end of the preparatory course. In this aim, we observed over three years a group of more than sixty pupils of a private school of the city of Saint-André (Réunion island) by proceeding particularly with an evaluation of the level of phonological conscience in great section of nursery school in november 2001 and february 2002, followed by a test evaluating the level of transcription involving the same population at the end of the preparatory course, in june 2003. Among other results, it appeared that the correlation between the two studied variables was statistically significant. Therefore, the score obtained at the test of total phonological conscience in the great section of nursery school appears to be a good predictor of the performance in transcription as measured with a test in preparatory course. The acceptability of the different tasks involved in this study was very good and then, the selected tests could be useful in the early detection and prevention of possible troubles of reading and spelling
APA, Harvard, Vancouver, ISO, and other styles
20

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Full text
Abstract:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
APA, Harvard, Vancouver, ISO, and other styles
21

Benkaci, Mourad. "Surveillance des systèmes mécatronique d'automobile par des méthodes d'apprentissage." Toulouse 3, 2011. https://tel.archives-ouvertes.fr/tel-00647456.

Full text
Abstract:
La surveillance des systèmes mécatroniques, en particulier, ceux intégrés sur les véhicules d'aujourd'hui est de plus en plus difficile. Les interconnexions de ces systèmes en vue de l'accroissement des performances et du confort de véhicule augmentent la complexité de l'information nécessaire à la prise de décision en temps réel. Cette thèse est consacrée à la problématique de détection et d'isolation (FDI, Fault Detection & Isolation) de pannes automobiles en utilisant des systèmes de recherche et d'évaluation de l'information par des approches monocritères. Les variables pertinentes pour la détection rapide des pannes sont sélectionnées d'une manière automatique en utilisant deux approches différentes : I. La première consiste à introduire la notion de conflit entre toutes les variables mesurables du système mécatronique et les analyser à partir des projections dans des espaces de classification hyper-rectangles. II. La deuxième approche consiste à utiliser la complexité de Kolmogorov comme outil de classification des signatures de pannes. L'estimation de la complexité de Kolmogorov par des algorithmes de compression sans perte d'information permet de définir un dictionnaire de pannes et de donner un score de criticité par rapport au bon fonctionnement du véhicule. Les deux approches proposées ont été appliquées avec succès sur plusieurs types de données automobiles dans le cadre du projet ANR-DIAPA
Mechatronic systems monitoring, especially those built on today's vehicles, is increasingly complicated. The interconnections of these systems for increased performance and comfort of vehicles increases the complexity of information needed for decision-making in real time. This PhD thesis is devoted to the problem of detection and isolation (FDI Fault Detection & Isolation) of faults in automotive systems using algorithms based on research and evaluation of information by mono-criterion approaches. Relevant variables for rapid detection of faults are selected in an automatic manner by using two different approaches: I. The first is to introduce the notion of conflict between all the measurable variables of mechatronic system and to analyze these variables using their projections in hyper-rectangles spaces classification. II. The second approach is to use Kolmogorov complexity as a tool for classification of fault signatures. The estimate of the Kolmogorov complexity by compression algorithms, without loss of information, allows defining a dictionary of faults and giving a score of criticality with respect to the healthy functioning of the vehicle. The two proposed approaches have been successfully applied to many types of automotive data in the ANR-DIAP project
APA, Harvard, Vancouver, ISO, and other styles
22

Atine, Jean-Charles. "Méthodes d'apprentissage flou : application à la segmentation d'images biologiques." Toulouse, INSA, 2005. http://eprint.insa-toulouse.fr/archive/00000272/.

Full text
Abstract:
TLes travaux présentés ont pour objectif d'aider les biologistes au diagnostic de la viabilité cellulaire en utilisant des méthodes de classification floues. Notre travail fait part d'une stratégie de classification permettant de construire un partitionnement d'images de cellules venant d'un microscope optique. Nous aboutissons à une classification automatique des cellules, en segmentant l'image, par l'algorithme T-LAMDA que nous avons développé. Une étude portant sur les méthodes de classification existantes, l'espace couleur et la résistance au bruit, permet de trouver la structure la plus adaptée à notre étude. L'analyse comparative de différentes méthodes (dont les méthodes LAMDA et T-LAMDA), nous permet de mettre en exergue la plus appropriée pour la classification des cellules mélangées au bleu de méthylène. Nous proposons quelques algorithmes supervisés basés sur LAMDA afin de voir si le sens de traitement des données au niveau de cet algorithme influe sur le résultat. L'algorithme T-LAMDA, basé sur les arbres de décisions, se révèle le mieux adapté pour notre étude et donne ainsi des résultats plus précis que les autres méthodes, avec un temps d'exécution plus court. Nous suggérons de faire un apprentissage en utilisant l'application CELCA, Cell Classification Application, qui utilise l'algorithme T-LAMDA. Le logiciel se charge des calculs des cinétiques, en fonction des images qui respectent un protocole bien défini. Le temps de traitement de 117 images est de 6'47'' minutes, ce qui est largement en dessous du temps mis par les biologistes en effectuant manuellement le comptage
The presented works have for objective to help the biologists in the diagnosis of the cellular viability by using some methods of classification. Our work announces a strategy of classification allowing to building partition of images of cells coming from an optical microscope. We classify automatically the cells by operating the segmentation on images using the developed algorithm T-LAMDA. A statement concerning the existing classification methods, the color space and the resistance to noise, allows to finding the structure the most adapted to our study. The comparative analysis of various methods (of which LAMDA and T-LAMDA methods), allows us to put in evidence the most appropriate for the classification of cells subjected to the blue of methylene solution. We propose some supervised algorithms based on LAMDA to show if the way of treating the data influence the result. The T-LAMDA algorithm, based on the decision trees, shows itself the best adapted for our study and so gives more precise results than other methods, with a shorter time of execution. We suggest learning by using the CELCA application, Cell Classification Application, which uses the developed T-LAMDA algorithm. The software takes care of calculations of the kinetics, according to the images which respect to a well defined protocol. Time for treating 117 images is 6 '47'' minutes, what is widely below the time taken by biologists to count the cells
APA, Harvard, Vancouver, ISO, and other styles
23

Théveniaut, Hugo. "Méthodes d'apprentissage automatique et phases quantiques de la matière." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30228.

Full text
Abstract:
Mon travail de thèse s'est articulé autour de trois manières d'utiliser les méthodes d'apprentissage automatique (machine learning) en physique de la matière condensée. Premièrement, j'expliquerai comment il est possible de détecter automatiquement des transitions de phase en reformulant cette tâche comme un problème de classification d'images. J'ai testé la fiabilité et relevé les limites de cette approche dans des modèles présentant des phases localisées à N corps (many-body localized - MBL) en dimension 1 et en dimension 2. Deuxièmement, j'introduirai une représentation variationnelle d'états fondamentaux sous la forme de réseaux de neurones (neural-network quantum states - NQS). Je présenterai nos résultats sur un modèle contraint de bosons de coeur dur en deux dimensions avec des méthodes variationnelles basées sur des NQS et de projection guidée. Nos travaux montrent notamment que les états NQS peuvent encoder avec précision des états solides et liquides de bosons. Enfin, je présenterai une nouvelle approche pour la recherche de stratégies de corrections d'erreur dans les codes quantiques, cette approche se base sur les techniques utilisées pour concevoir l'intelligence artificielle AlphaGo. Nous avons pu montrer que des stratégies efficaces peuvent être découvertes avec des algorithmes d'optimisation évolutionnistes. En particulier, nous avons observé que des réseaux de neurones peu profonds sont compétitifs avec les réseaux profonds utilisés dans des travaux antérieurs, représentant un gain d'un facteur 10000 en termes de nombre de paramètres
My PhD thesis presents three applications of machine learning to condensed matter theory. Firstly, I will explain how the problem of detecting phase transitions can be rephrased as an image classification task, paving the way to the automatic mapping of phase diagrams. I tested the reliability of this approach and showed its limits for models exhibiting a many-body localized phase in 1 and 2 dimensions. Secondly, I will introduce a variational representation of quantum many-body ground-states in the form of neural-networks and show our results on a constrained model of hardcore bosons in 2d using variational and projection methods. In particular, we confirmed the phase diagram obtained independently earlier and extends its validity to larger system sizes. Moreover we also established the ability of neural-network quantum states to approximate accurately solid and liquid bosonic phases of matter. Finally, I will present a new approach to quantum error correction based on the same techniques used to conceive the best Go game engine. We showed that efficient correction strategies can be uncovered with evolutionary optimization algorithms, competitive with gradient-based optimization techniques. In particular, we found that shallow neural-networks are competitive with deep neural-networks
APA, Harvard, Vancouver, ISO, and other styles
24

Playe, Benoit. "Méthodes d'apprentissage statistique pour le criblage virtuel de médicament." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM010/document.

Full text
Abstract:
Le processus de découverte de médicaments a un succès limité malgré tous les progrès réalisés. En effet, on estime actuellement que le développement d'un médicament nécessite environ 1,8 milliard de dollars américains sur environ 13 ans. Nous nous concentrons dans cette thèse sur des approches statistiques qui criblent virtuellement un grand ensemble de composés chimique contre un grand nombre de protéines. Leurs applications sont polyvalentes : elles permettent d’identifier des candidats médicaments pour des cibles thérapeutiques connues, d’anticiper des effets secondaires potentiels, ou de proposer de nouvelles indications thérapeutiques pour des médicaments connus. Cette thèse est conçue selon deux cadres d'approches de criblage virtuel : les approches dans lesquelles les données sont décrites numériquement sur la base des connaissances des experts, et les approches basées sur l'apprentissage automatique de la représentation numérique à partir du graphe moléculaire et de la séquence protéique. Nous discutons ces approches et les appliquons pour guider la découverte de médicaments
The rational drug discovery process has limited success despite all the advances in understanding diseases, and technological breakthroughs. Indeed, the process of drug development is currently estimated to require about 1.8 billion US dollars over about 13 years on average. Computational approaches are promising ways to facilitate the tedious task of drug discovery. We focus in this thesis on statistical approaches which virtually screen a large set of compounds against a large set of proteins, which can help to identify drug candidates for known therapeutic targets, anticipate potential side effects or to suggest new therapeutic indications of known drugs. This thesis is conceived following two lines of approaches to perform drug virtual screening : data-blinded feature-based approaches (in which molecules and proteins are numerically described based on experts' knowledge), and data-driven feature-based approaches (in which compounds and proteins numerical descriptors are learned automatically from the chemical graph and the protein sequence). We discuss these approaches, and also propose applications of virtual screening to guide the drug discovery process
APA, Harvard, Vancouver, ISO, and other styles
25

Robbiano, Sylvain. "Méthodes d'apprentissage statistique pour le ranking : théorie, algorithmes et applications." Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00936092.

Full text
Abstract:
Le ranking multipartite est un problème d'apprentissage statistique qui consiste à ordonner les observations qui appartiennent à un espace de grande dimension dans le même ordre que les labels, de sorte que les observations avec le label le plus élevé apparaissent en haut de la liste. Cette thèse vise à comprendre la nature probabiliste du problème de ranking multipartite afin d'obtenir des garanties théoriques pour les algorithmes de ranking. Dans ce cadre, la sortie d'un algorithme de ranking prend la forme d'une fonction de scoring, une fonction qui envoie l'espace des observations sur la droite réelle et l'ordre final est construit en utilisant l'ordre induit par la droite réelle. Les contributions de ce manuscrit sont les suivantes : d'abord, nous nous concentrons sur la caractérisation des solutions optimales de ranking multipartite. Une nouvelle condition sur les rapports de vraisemblance est introduite et jugée nécessaire et suffisante pour rendre le problème de ranking multipartite bien posé. Ensuite, nous examinons les critères pour évaluer la fonction de scoring et on propose d'utiliser une généralisation de la courbe ROC nommée la surface ROC pour cela ainsi que le volume induit par cette surface. Pour être utilisée dans les applications, la contrepartie empirique de la surface ROC est étudiée et les résultats sur sa consistance sont établis. Le deuxième thème de recherche est la conception d'algorithmes pour produire des fonctions de scoring. La première procédure est basée sur l'agrégation des fonctions de scoring apprises sur des sous-problèmes de ranking binaire. Dans le but d'agréger les ordres induits par les fonctions de scoring, nous utilisons une approche métrique basée sur le de Kendall pour trouver une fonction de scoring médiane. La deuxième procédure est une méthode récursive, inspirée par l'algorithme TreeRank qui peut être considéré comme une version pondérée de CART. Une simple modification est proposée pour obtenir une approximation de la surface ROC optimale en utilisant une fonction de scoring constante par morceaux. Ces procédures sont comparées aux algorithmes de l'état de l'art pour le ranking multipartite en utilisant des jeux de données réelles et simulées. Les performances mettent en évidence les cas où nos procédures sont bien adaptées, en particulier lorsque la dimension de l'espace des caractéristiques est beaucoup plus grand que le nombre d'étiquettes. Enfin, nous revenons au problème de ranking binaire afin d'établir des vitesses minimax adaptatives de convergence. Ces vitesses sont montrées pour des classes de distributions contrôlées par la complexité de la distribution a posteriori et une condition de faible bruit. La procédure qui permet d'atteindre ces taux est basée sur des estimateurs de type plug-in de la distribution a posteriori et une méthode d'agrégation utilisant des poids exponentiels.
APA, Harvard, Vancouver, ISO, and other styles
26

Laumonier, Julien. "Méthodes d'apprentissage de la coordination multiagent : application au transport intelligent." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25482/25482.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Augustin, Lefèvre. "Méthodes d'apprentissage appliquées à la séparation de sources mono-canal." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00764546.

Full text
Abstract:
Étant donne un mélange de plusieurs signaux sources, par exemple un morceau et plusieurs instruments, ou un entretien radiophonique et plusieurs interlocuteurs, la séparation de source mono-canal consiste a' estimer chacun des signaux sources a' partir d'un enregistrement avec un seul microphone. Puisqu'il y a moins de capteurs que de sources, il y a a priori une infinité de solutions sans rapport avec les sources originales. Il faut alors trouver quelle information supplémentaire permet de rendre le problème bien pose. Au cours des dix dernières années, la factorisation en matrices positives (NMF) est devenue un composant majeurs des systèmes de séparation de sources. En langage profane, la NMF permet de d'écrire un ensemble de signaux audio a ́ partir de combinaisons d' éléments sonores simples (les atomes), formant un dictionnaire. Les systèmes de séparation de sources reposent alors sur la capacité a trouver des atomes qui puissent être assignes de fa con univoque 'a chaque source sonore. En d'autres termes, ils doivent être interprétables. Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapte a la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles ou' seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapte a chaque source. Ces dictionnaires permettent ensuite d'effectuer la tache de séparation dans les intervalles ou' les sources sont mélangées. Ces deux taches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire a grande échelle, sur des signaux de plusieurs heures, ce qui était impossible auparavant. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche a' l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement difficile, et l'apport d'information spécifique au signal traite est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquence. Elle repose sur l'observation que la quasi-totalite du spectro- gramme peut être divise en régions spécifiquement assignées a' chaque source. Nous d'éecrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples.
APA, Harvard, Vancouver, ISO, and other styles
28

Mohammed, Omar. "Méthodes d'apprentissage approfondi pour l'extraction et le transfert de style." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT035.

Full text
Abstract:
L'un des aspects d'une interface homme-machine réussie (p. ex. interaction homme-robot, chatbots, parole, écriture manuscrite, etc.) est la possibilité d'avoir une interaction personnalisée. Cela affecte l'expérience humaine globale et permet une interaction plus fluide. Actuellement, il y a beaucoup de travaux qui utilisent l'apprentissage machine afin de modéliser de telles interactions. Cependant, ces modèles n'abordent pas la question du comportement personnalisé : ils tentent de faire la moyenne des différents exemples provenant de différentes personnes. L'identification des styles humains (persona) ouvre la possibilité de biaiser la sortie des modèles pour prendre en compte la préférence humaine. Dans cette thèse, nous nous sommes concentrés sur le problème des styles dans le contexte de l'écriture manuscrite.L'objectif de cette thèse est d'étudier ces problèmes de styles, dans le domaine de l'écriture. Nous disposons d'un jeu de données IRONOFF, un jeu de données d'écriture manuscrite en ligne, avec 410 rédacteurs, avec ~25K exemples de dessins en majuscules, minuscules et chiffres. Pour le problème de l'apprentissage par transfert, nous avons utilisé un jeu de données supplémentaire, QuickDraw ! (disponible gratuitement sur Google), un jeu de données de dessin d'esquisses contenant environ 50 millions de dessins sur 345 catégories.Les principales contributions de ma thèse sont :1) Proposer un pipeline de travail pour étudier le problème des styles d'écriture. Il s'agit de proposer une méthodologie, des repères et des paramètres d'évaluation (et de fonder ces paramètres d'évaluation).Nous choisissons le paradigme des modèles génératifs temporels dans l'apprentissage profond afin de générer des dessins et d'évaluer leur proximité/pertinence par rapport aux dessins de vérité voulus/de terrain. Nous avons proposé deux métriques, pour évaluer la courbure et la longueur des dessins générés. Afin d'enraciner ces métis, nous avons proposé de multiples repères - dont nous connaissons le pouvoir relatif à l'avance -, puis vérifié que les mesures respectent effectivement la relation de pouvoir relatif.2) Proposer un cadre pour l'étude et l'extraction des styles, et vérifier son avantage par rapport aux repères proposés précédemment.Nous nous sommes mis d'accord sur l'idée d'utiliser un auto-encodeur conditionné en profondeur pour résumer et extraire les informations de style, sans avoir besoin de nous concentrer sur l'identité de la tâche (puisqu'elle est donnée comme une condition). Nous validons ce cadre par rapport au repère proposé précédemment à l'aide de nos paramètres d'évaluation. Nous visualisons également les styles extraits, ce qui nous permet d'obtenir des résultats passionnants !3) En utilisant le cadre proposé, proposer un moyen de transférer l'information sur les styles entre les différentes tâches, et un protocole afin d'évaluer la qualité du transfert.Nous avons exploité le codeur automatique conditionné profond utilisé précédemment, en extrayant la partie codeur - qui, selon nous, contenait les informations pertinentes sur les styles - et en l'utilisant dans de nouveaux modèles formés sur de nouvelles tâches. Nous testons intensivement ce paradigme sur une gamme différente de tâches, à la fois sur les ensembles de données IRONOFF et QuickDraw!. Nous montrons que nous pouvons transférer avec succès les informations de style entre différentes tâches
One aspect of a successful human-machine interface (e.g. human-robot interaction, chatbots, speech, handwriting…,etc) is the ability to have a personalized interaction. This affects the overall human experience, and allow for a more fluent interaction. At the moment, there is a lot of work that uses machine learning in order to model such interactions. However, these models do not address the issue of personalized behavior: they try to average over the different examples from different people in the training set. Identifying the human styles (persona) opens the possibility of biasing the models output to take into account the human preference. In this thesis, we focused on the problem of styles in the context of handwriting.Defining and extracting handwriting styles is a challenging problem, since there is no formal definition for those styles (i.e., it is an ill-posed problem). Styles are both social - depending on the writer's training, especially in middle school - and idiosyncratic - depends on the writer's shaping (letter roundness, sharpness…,etc) and force distribution over time. As a consequence, there are no easy/generic metrics to measure the quality of style in a machine behavior.We may want to change the task or adapt to a new person. Collecting data in the human-machine interface domain can be quite expensive and time consuming. Although most of the time the new task has many things in common with the old task, traditional machine learning techniques fail to take advantage of this commonality, leading to a quick degradation in performance. Thus, one of the objectives of my thesis is to study and evaluate the idea of transferring knowledge about the styles between different tasks, within the machine learning paradigm.The objective of my thesis is to study these problems of styles, in the domain of handwriting. Available to us is IRONOFF dataset, an online handwriting datasets, with 410 writers, with ~25K examples of uppercase, lowercase letters and digits drawings. For transfer learning, we used an extra dataset, QuickDraw!, a sketch drawing dataset containing ~50 million drawing over 345 categories.Major contributions of my thesis are:1) Propose a work pipeline to study the problem of styles in handwriting. This involves proposing methodology, benchmarks and evaluation metrics.We choose temporal generative models paradigm in deep learning in order to generate drawings, and evaluate their proximity/relevance to the intended/ground truth drawings. We proposed two metrics, to evaluate the curvature and the length of the generated drawings. In order to ground those metics, we proposed multiple benchmarks - which we know their relative power in advance -, and then verified that the metrics actually respect the relative power relationship.2) Propose a framework to study and extract styles, and verify its advantage against the previously proposed benchmarks.We settled on the idea of using a deep conditioned-autoencoder in order to summarize and extract the style information, without the need to focus on the task identity (since it is given as a condition). We validate this framework to the previously proposed benchmark using our evaluation metrics. We also to visualize on the extracted styles, leading to some exciting outcomes!3) Using the proposed framework, propose a way to transfer the information about styles between different tasks, and a protocol in order to evaluate the quality of transfer.We leveraged the deep conditioned-autoencoder used earlier, by extract the encoder part in it - which we believe had the relevant information about the styles - and use it to in new models trained on new tasks. We extensively test this paradigm over a different range of tasks, on both IRONOFF and QuickDraw! datasets. We show that we can successfully transfer style information between different tasks
APA, Harvard, Vancouver, ISO, and other styles
29

Jacques, Céline. "Méthodes d'apprentissage automatique pour la transcription automatique de la batterie." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS150.

Full text
Abstract:
Cette thèse se concentre sur les méthodes d’apprentissage pour la transcription automatique de la batterie. Elles sont basées sur un algorithme de transcription utilisant une méthode de décomposition non-négative, la NMD. Cette thèse soulève deux principales problématiques : l’adaptation des méthodes au signal analysé et l’utilisation de l’apprentissage profond. La prise en compte des informations du signal analysé dans le modèle peut être réalisée par leur introduction durant les étapes de décomposition. Une première approche est de reformuler l’étape de décomposition dans un contexte probabiliste pour faciliter l’introduction d’informations a posteriori avec des méthodes comme la SI-PLCA et la NMD statistique. Une deuxième approche est d’implémenter directement dans la NMD une stratégie d’adaptation : l’application de filtres modelables aux motifs pour modéliser les conditions d’enregistrement ou l’adaptation des motifs appris directement au signal en appliquant de fortes contraintes pour conserver leur signification physique. La deuxième approche porte sur la sélection des segments de signaux à analyser. Il est préférable d’analyser les segments où au moins un événement percussif a lieu. Un détecteur d’onsets basé sur un réseau de neurones convolutif (CNN) est adapté pour détecter uniquement les onsets percussifs. Les résultats obtenus étant très intéressants, le détecteur est entraîné à ne détecter qu’un seul instrument permettant la réalisation de la transcription des trois principaux instruments de batterie avec trois CNN. Finalement, l’utilisation d’un CNN multi-sorties est étudiée pour transcrire la partie de batterie avec un seul réseau
This thesis focuses on learning methods for automatic transcription of the battery. They are based on a transcription algorithm using a non-negative decomposition method, NMD. This thesis raises two main issues: the adaptation of methods to the analyzed signal and the use of deep learning. Taking into account the information of the signal analyzed in the model can be achieved by their introduction during the decomposition steps. A first approach is to reformulate the decomposition step in a probabilistic context to facilitate the introduction of a posteriori information with methods such as SI-PLCA and statistical NMD. A second approach is to implement an adaptation strategy directly in the NMD: the application of modelable filters to the patterns to model the recording conditions or the adaptation of the learned patterns directly to the signal by applying strong constraints to preserve their physical meaning. The second approach concerns the selection of the signal segments to be analyzed. It is best to analyze segments where at least one percussive event occurs. An onset detector based on a convolutional neural network (CNN) is adapted to detect only percussive onsets. The results obtained being very interesting, the detector is trained to detect only one instrument allowing the transcription of the three main drum instruments with three CNNs. Finally, the use of a CNN multi-output is studied to transcribe the part of battery with a single network
APA, Harvard, Vancouver, ISO, and other styles
30

Manenti, Céline. "Découverte d'unités linguistiques à l'aide de méthodes d'apprentissage non supervisé." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30074.

Full text
Abstract:
La découverte d'unités linguistiques élémentaires (phonèmes, mots) uniquement à partir d'enregistrements sonores est un problème non-résolu qui suscite un fort intérêt de la communauté du traitement automatique de la parole, comme en témoignent les nombreuses contributions récentes de l'état de l'art. Durant cette thèse, nous nous sommes concentrés sur l'utilisation de réseaux de neurones pour répondre au problème. Nous avons approché le problème en utilisant les réseaux de neurones de manière supervisée, faiblement supervisée et multilingue. Nous avons ainsi développé des outils de segmentation automatique en phonèmes et de classification phonétique fondés sur des réseaux de neurones convolutifs. L'outil de segmentation automatique a obtenu 79% de F-mesure sur le corpus de parole conversationnelle en anglais BUCKEYE. Ce résultat est similaire à un annotateur humain d'après l'accord inter-annotateurs fourni par les créateurs du corpus. De plus, il n'a pas besoin de beaucoup de données (environ une dizaine de minutes par locuteur et 5 locuteurs différents) pour être performant. De plus, il est portable à d'autres langues (notamment pour des langues peu dotées telle que le xitsonga). Le système de classification phonétique permet de fixer les différents paramètres et hyperparamètres utiles pour un scénario non supervisé. Dans le cadre non supervisé, les réseaux de neurones (Auto-Encodeurs) nous ont permis de générer de nouvelles représentations paramétriques, concentrant l'information de la trame d'entrée et ses trames voisines. Nous avons étudié leur utilité pour la compression audio à partir du signal brut, pour laquelle ils se sont montrés efficaces (faible taux de RMS, même avec une compression de 99%). Nous avons également réalisé une pré-étude novatrice sur une utilisation différente des réseaux de neurones, pour générer des vecteurs de paramètres non pas à partir des sorties des couches mais des valeurs des poids des couches. Ces paramètres visent à imiter les coefficients de prédiction linéaire (Linear Predictive Coefficients, LPC). Dans le contexte de la découverte non supervisée d'unités similaires à des phonèmes (dénommées pseudo-phones dans ce mémoire) et la génération de nouvelles représentations paramétriques phonétiquement discriminantes, nous avons couplé un réseau de neurones avec un outil de regroupement (k-means). L'alternance itérative de ces deux outils a permis la génération de paramètres phonétiquement discriminants pour un même locuteur : de faibles taux d'erreur ABx intra-locuteur de 7,3% pour l'anglais, 8,5% pour le français et 8,4% pour le mandarin ont été obtenus. Ces résultats permettent un gain absolu d'environ 4% par rapport à la baseline (paramètres classiques MFCC) et sont proches des meilleures approches actuelles (1% de plus que le vainqueur du Zero Ressource Speech Challenge 2017). Les résultats inter-locuteurs varient entre 12% et 15% suivant la langue, contre 21% à 25% pour les MFCC
The discovery of elementary linguistic units (phonemes, words) only from sound recordings is an unresolved problem that arouses a strong interest from the community of automatic speech processing, as evidenced by the many recent contributions of the state of the art. During this thesis, we focused on using neural networks to answer the problem. We approached the problem using neural networks in a supervised, poorly supervised and multilingual manner. We have developed automatic phoneme segmentation and phonetic classification tools based on convolutional neural networks. The automatic segmentation tool obtained 79% F-measure on the BUCKEYE conversational speech corpus. This result is similar to a human annotator according to the inter-annotator agreement provided by the creators of the corpus. In addition, it does not need a lot of data (about ten minutes per speaker and 5 different speakers) to be effective. In addition, it is portable to other languages (especially for poorly endowed languages such as xitsonga). The phonetic classification system makes it possible to set the various parameters and hyperparameters that are useful for an unsupervised scenario. In the unsupervised context, the neural networks (Auto-Encoders) allowed us to generate new parametric representations, concentrating the information of the input frame and its neighboring frames. We studied their utility for audio compression from the raw signal, for which they were effective (low RMS, even at 99% compression). We also carried out an innovative pre-study on a different use of neural networks, to generate vectors of parameters not from the outputs of the layers but from the values of the weights of the layers. These parameters are designed to mimic Linear Predictive Coefficients (LPC). In the context of the unsupervised discovery of phoneme-like units (called pseudo-phones in this memory) and the generation of new phonetically discriminative parametric representations, we have coupled a neural network with a clustering tool (k-means ). The iterative alternation of these two tools allowed the generation of phonetically discriminating parameters for the same speaker: low rates of intra-speaker ABx error of 7.3% for English, 8.5% for French and 8 , 4% for Mandarin were obtained. These results allow an absolute gain of about 4% compared to the baseline (conventional parameters MFCC) and are close to the best current approaches (1% more than the winner of the Zero Resource Speech Challenge 2017). The inter-speaker results vary between 12% and 15% depending on the language, compared to 21% to 25% for MFCCs
APA, Harvard, Vancouver, ISO, and other styles
31

Laumônier, Julien. "Méthodes d'apprentissage de la coordination multiagent : application au transport intelligent." Doctoral thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/20000.

Full text
Abstract:
Les problèmes de prise de décisions séquentielles multiagents sont difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement l'état de Y environnement. Les approches existantes pour résoudre ces problèmes utilisent souvent des approximations de la fonction de valeur ou se basent sur la structure pour simplifier la résolution. Dans cette thèse, nous proposons d'approximer un problème de décisions séquentielles multiagent à observation limitée, modélisé par un processus décisionnel markovien décentralisé (DEC-MDP) en utilisant deux hypothèses sur la structure du problème. La première hypothèse porte sur la structure de comportement optimal et suppose qu'il est possible d'approximer la politique optimale d'un agent en connaissant seulement les actions optimales au niveau d'un petit nombre de situations auxquelles l'agent peut faire face dans son environnement. La seconde hypothèse porte, quant à elle, sur la structure organisationnelle des agents et suppose que plus les agents sont éloignés les uns des autres, moins ils ont besoin de se coordonner. Ces deux hypothèses nous amènent à proposer deux approches d'approximation. La première approche, nommée Supervised Policy Reinforcement Learning, combine l'apprentissage par renforcement et l'apprentissage supervisé pour généraliser la politique optimale d'un agent. La second approche se base, quant à elle, sur la structure organisationnelle des agents pour apprendre une politique multiagent dans des problèmes où l'observation est limitée. Pour cela, nous présentons un modèle, le D O F - D E C - M DP (Distance-Observable Factored Decentralized Markov Décision Process) qui définit une distance d'observation pour les agents. A partir de ce modèle, nous proposons des bornes sur le gain de récompense que permet l'augmentation de la distance d'observation. Les résultats empiriques obtenus sur des problèmes classiques d'apprentissage par renforcement monoagents et multiagents montrent que nos approches d'approximation sont capables d'apprendre des politiques proches de l'optimale. Enfin, nous avons testé nos approches sur un problème de coordination de véhicules en proposant une méthode de synchronisation d'agents via la communication dans un cadre à observation limitée.
APA, Harvard, Vancouver, ISO, and other styles
32

Mordelet, Fantine. "Méthodes d'apprentissage statistique à partir d'exemples positifs et indéterminés en biologie." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00566401.

Full text
Abstract:
La biologie est un domaine scientifique qui reste encore très incomplet au sens où la somme de connaissances qu'il nous reste à découvrir est non négligeable. Il est fréquent que les techniques de laboratoire traditionnelles soient inadaptées à la complexité du problème traité. Une raison possible à cela est que leur mise en œuvre requiert souvent beaucoup de temps et/ou de moyens financiers. Par ailleurs, certaines d'entre elles produisent des résultats peu fiables ou à trop faible débit. C'est pourquoi ces techniques peinent parfois à apporter des réponses aux nombreuses questions biologiques non résolues. En parallèle, l'évolution des biotechnologies a permis de produire massivement des données biologiques. Les expériences biologiques à haut débit permettent à présent de caractériser des cellules à l'échelle du génome et sont porteuses d'espoir pour la compréhension de phénomènes biologiques complexes. Ces deux faits combinés ont induit un besoin croissant de mathématiciens et de statisticiens en biologie. La tâche des bioinformaticiens est non seulement d'analyzer efficacement les masses de données produites par les expériences à haut débit et d'en extraire une information fiable mais aussi d'élaborer des modèles de systèmes biologiques menant à des prédictions utiles. L'inférence de réseaux de régulation et la recherche de gènes de maladie sont deux exemples parmi d'autres, de problèmes où une expertise bioinformatique peut s'avérer nécessaire. L'inférence de réseaux de régulation consiste à identifier les relations de régulation transcriptionnelle entre des gènes régulateurs appelés facteurs de transcription et des gènes cibles. Par ailleurs, la recherche de gènes de maladie consiste à déterminer les gènes dont les mutations mènent au développement d'une maladie génétiquement transmise. Dans les deux cas, les biologistes sont confrontés à des listes de milliers de gènes à tester. Le défi du bioinformaticien est donc de produire une liste de priorité où les interactions ou gènes candidats sont rangés par ordre de pertinence au problème traité, en vue d'une validation expérimentale. Les deux problèmes mentionnés plus haut partagent une caractéristique commune : ce sont tous les deux des problèmes de priorisation pour lesquels un petit nombre d'exemples positifs est disponible (des interactions connues ou gènes de maladie déjà identifiés) mais pour lesquels on ne dispose pas de données négatives. En effet, les bases de données biologiques ne reportent que rarement les paires de gènes non interactives. De même, il est difficile voire impossible de déterminer à coup sûr qu'un gène n'est pas impliqué dans le développement d'une maladie. Par ailleurs, des nombreux exemples indéterminés existent qui sont par exemple des gènes dont on ne sait pas si ils interagissent avec un facteur de transcription ou encore des gènes dont on ne sait pas s'ils sont causaux pour une maladie. Le problème de l'apprentissage à partir d'exemples positifs et indéterminés (PU learning en anglais) a été étudié en soi dans le domaine de l'apprentissage automatique (machine learning). L'objet de cette thèse est l'étude de méthodes de PU learning et leur application à des problèmes biologiques. Le premier chapitre présente le bagging SVM, un nouvel algorithme de PU learning et évalue ses performances et propriétés sur un jeu de données standard. L'idée principale de cet algorithme est d'exploiter au moyen d'une procédure voisine du bagging, une caractéristique intrinsèque d'un problème de PU learning qui est que l'ensemble des exemples indéterminés contient des positifs cachés. Le bagging SVM atteint des performances comparables à l'état de l'art tout en faisant preuve de bonnes propriétés en termes de rapidité et d'échelle par rapport au nombre d'exemples. Le deuxième chapitre est consacré à SIRENE, une nouvelle méthode supervisée pour l'inférence de réseaux de régulation. SIRENE est un algorithme conceptuellement simple qui donne de bons résultats en comparaison à des méthodes existantes pour l'inférence de réseaux. Enfin, le troisième chapitre décrit ProDiGe, un algorithme pour la priorisation de gènes de maladie à partir d'exemples positifs et indéterminés. Cet algorithme, issu du bagging SVM, peut gérer la recherche de gènes de maladies à l'échelle du génome et permet d'intégrer plusieurs sources de données. Sa capacité à retrouver correctement des gènes de maladie a été démontrée sur un jeu de données réel.
APA, Harvard, Vancouver, ISO, and other styles
33

Gosselin, Philippe-Henri. "Méthodes d'apprentissage pour la recherche de catégories dans des bases d'images." Phd thesis, Université de Cergy Pontoise, 2005. http://tel.archives-ouvertes.fr/tel-00619222.

Full text
Abstract:
La diminution du coût de stockage et la disponibilité de techniques de numérisation de haute qualité permettent aussi aujourd'hui de constituer de très grandes bases d'images dans des domaines variés. Ces bases sont souvent immenses et généralement sous-exploitées faute d'outils pour accéder à l'information qu'elles contiennent. Dans cette thèse, nous proposons un ensemble de techniques d'apprentissage pour la recherche de catégories d'images, regroupées au sein du système RETIN 2. Du point de vue de l'indexation, nous proposons une méthode de quantification d'un très grand nombre de vecteurs pour la construction de signatures sous la forme d'histogrammes, ainsi qu'une approche de la similarité par fonction noyau. Du point de vue de la recherche interactive, nous étudions de nombreuses techniques de classification, et présentons l'apprentissage actif, qui offre un cardre formel pour la sélection des images à faire annoter par l'utilisateur. Nous proposons plusieurs méthodes au sein d'une architecture d'apprentissage actif qui permettent de faire face aux caratéristiques particulières de la recherche interactive d'images. Le dernier point important que nous avons étudié concerne la ré-utilisation des annotations que les utilisateurs fournissent lors des sessions de recherche. Nous présentons le caractère faiblement supervisé de ce problème d'apprentissage dans notre contexte. Nous proposons deux méthodes qui s'appuient sur une modification des similarités entre les images dans le cadre de l'utilisation de fonctions noyaux. Le système est évalué sur une base d'images généraliste de plusieurs milliers d'images.
APA, Harvard, Vancouver, ISO, and other styles
34

Vu, Hien Duc. "Adaptation des méthodes d'apprentissage automatique pour la détection de défauts d'arc électriques." Electronic Thesis or Diss., Université de Lorraine, 2019. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2019_0152_VU.pdf.

Full text
Abstract:
La détection des arcs électriques se produisant dans un réseau électrique par des approches d’apprentissage représente le cœur des travaux exposés dans cette thèse. Le problème a d’abord été vu comme la classification de séries temporelles à taille fixe en deux classes: normal et défaut. Cette première partie s’appuie sur les travaux de la littérature où les algorithmes de détection sont organisés principalement sur une étape de transformation des signaux acquis sur le réseau, suivie d’une étape d’extraction de caractéristiques descriptives et enfin d’une étape de décision. L’approche multicritères adoptée ici a pour objectif de répondre aux imprécisions systématiquement constatées. Une méthodologie de sélection des meilleures combinaisons et de transformation et de descripteurs a été proposée en exploitant des solutions d’apprentissage. La mise au point de descripteurs pertinents étant toujours difficile, l'évaluation des possibilités offertes par l'apprentissage profond a également été étudiée. Dans une seconde phase l’étude a porté sur les aspects variables dans le temps de la détection de défaut. Deux voies statistiques de décision ont été explorées l’une basée sur le test de probabilités séquentiel (SPRT) l’autre basée sur les réseaux de neurones artificiels LSTM (Long Short Time Memory Network) chacune de ces deux méthodes exploite à sa manière la durée d’une première étape de classification comprise entre 0 et 1 (normal, défaut). La décision par SPRT utilise une intégration de la classification initiale. LSTM apprend à classer des données à temps variable. Les résultats du réseau LSTM sont très prometteurs, il reste néanmoins quelques points à approfondir. L’ensemble de ces travaux s’appuie sur des expérimentations avec des données les plus complètes et les plus large possible sur le domaine des réseaux alternatifs 230V dans un contexte domestique et industriel. La précision obtenue approche les 100% dans la majorité des situations
The detection of electric arcs occurring in an electrical network by machine learning approaches represents the heart of the work presented in this thesis. The problem was first considered as a classification of fixed-size time series with two classes: normal and default. This first part is based on the work of the literature where the detection algorithms are organized mainly on a step of the transformation of the signals acquired on the network, followed by a step of extraction of descriptive characteristics and finally a step of decision. The multi-criteria approach adopted here aims to respond to systematic classification errors. A methodology for selecting the best combinations, transformation, and descriptors has been proposed by using learning solutions. As the development of relevant descriptors is always difficult, differents solutions offered by deep learning has also been studied. In a second phase, the study focused on the variable aspects in time of the fault detection. Two statistical decision paths have been explored, one based on the sequential probabilistic test (SPRT) and the other based on artificial neural networks LSTM (Long Short Time Memory Network). Each of these two methods exploits in its way the duration a first classification step between 0 and 1 (normal, default). The decision by SPRT uses an integration of the initial classification. LSTM learns to classify data with variable time. The results of the LSTM network are very promising, but there are a few things to explore. All of this work is based on experiments with the most complete and broadest possible data on the field of 230V alternative networks in a domestic and industrial context. The accuracy obtained is close to 100% in the majority of situations
APA, Harvard, Vancouver, ISO, and other styles
35

Fournier, Edouard. "Méthodes d'apprentissage statistique pour la prédiction de charges et de contraintes aéronautiques." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30123.

Full text
Abstract:
Cette thèse s'intéresse à l'apprentissage et à la représentation de données de charges et contraintes aéronautiques. Nous réalisons dans un premier temps une étude préliminaire pour la prédiction des courbes de charges aéronautiques. Nous comparons des méthodes de régression à base d'arbres et quantifions l'influence de techniques de réduction de dimension sur les performances en régression dans un cadre d'extrapolation. Dans un second temps, nous développons un modèle de déformation agissant simultanément sur les entrées et sorties des courbes. Nous étudions les propriétés asymptotiques des estimateurs des paramètres de déformation. Ce modèle de déformation est associé au processus de modélisation et prédiction des charges aéronautiques. Dans un troisième temps, nous donnons une méthodes simple et efficace de prédiction de charges critiques
This thesis focuses on Machine Learning and information extraction for aeronautical loads and stress data. In the first time, we carry out a study for the prediction of aeronautical loads curves. We compare regression trees based models and quantify the influence of dimension reduction techniques on regression performances in an extrapolation context. In the second time, we develop a deformation model acting simultaneously on the input and the output space of the curves. We study the asymptotic properties of the estimators of the deformation parameters. This deformation model is associated to the modeling and predicting process of aeronautical loads. Finally, we give a simple and efficient method for predicting critical loads
APA, Harvard, Vancouver, ISO, and other styles
36

Saldana, Miranda Diego. "Méthodes d'apprentissage automatique pour l'aide à la formulation : Carburants Alternatifs pour l'Aéronautique." Paris 6, 2013. http://www.theses.fr/2013PA066346.

Full text
Abstract:
Les carburants alternatifs et les biocarburants représentent une réponse viable et intéressante aux problèmes liés à l’utilisation des carburants conventionnels pour le transport. Un aspect nouveau des carburants alternatifs est le fait que la gamme des composés chimiques est importante en raison de la diversité de leurs origines. Cet aspect ouvre la possibilité de créer des « carburants personnalisés », dont les compositions chimiques sont ajustées aux spécifications des carburants conventionnels. Dans ce contexte, il est intéressant de développer des méthodes prédictives nous permettant d’estimer les propriétés physico-chimiques d’un carburant en se basant seulement sur sa composition chimique et les structures de ses composants. Dans cette thèse, nous avons évalué l’application des méthodes d’apprentissage automatique à l’estimation de propriétés telles que le point d’éclair, enthalpie de combustion, point de fusion, indice de cétane, masse volumique et viscosité d'hydrocarbures et composés oxygénés présent dans les biocarburants. Dans la première étape, des modèles d’apprentissage automatique des propriétés des corps purs ont été développés. Dans la deuxième étape nous avons traité les mélanges, deux approches ont été développées : (1) l’application directe des méthodes d’apprentissage automatique aux données des mélanges ; (2) combiner les prédictions des modèles développés pour les corps purs avec des règles de mélange. Il a été constaté que les méthodes d’apprentissage automatique, en particulier les machines à vecteur de support, représentent une voie efficace pour la mise en place de modèles précis et robustes. D'autre part, en absence de données suffisamment nombreuses ou représentatives, l’utilisation de règles de mélange en combinaison avec l’apprentissage automatique pour décrire les propriétés corps purs est une option viable. De façon générale, un nombre de méthodes prédictives de propriétés, précises, robustes et rapides ont été développées dans le but de guider la formulation des carburants alternatifs
Alternative fuels and biofuels are a viable and attractive answer to problems associated to the current widespread use of conventional fuels in vehicles. One interesting aspect of alternative fuels is that the range of possible chemical compounds is large due to their diverse biological origins. This aspect opens up the possibility of creating “designer fuels”, whose chemical compositions are tailored to the specifications of the fuel being replaced. In this regard, it would be interesting to develop accurate predictive methods capable of instantaneously estimating a fuel’s physico-chemical properties based solely on its chemical composition and structures of its components. In this PhD work, we have investigated the application of machine learning methods to estimate properties such as flash point, enthalpy of combustion, melting point, cetane number, density and viscosity for families of compounds and mixtures similar to those found in biofuels: hydrocarbons and oxygenated compounds. During the first part of this work, machine learning models of pure compound properties were developed. During the second part mixtures have been examinated, two types of approaches were investigated: (1) the direct application of machine learning methods to mixture property data; (2) the use of the previously developed pure compound property models in combination with theoretically based mixing rules. It was found that machine learning methods, especially support vector machine methods, were an effective way of creating accurate and robust models. It was further found that, in the absence of sufficiently large or representative datasets, the use of mixing rules in combination with machine learning is a viable option. Overall, a number of accurate, robust and fast property estimation methods have been developed as a means to guide the formulation of alternative fuels
APA, Harvard, Vancouver, ISO, and other styles
37

Dubois, Rémi. "Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies en électrocardiographie." Paris 6, 2004. https://pastel.archives-ouvertes.fr/pastel-00000571.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Dupas, Rémy. "Apport des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance industrielle." Valenciennes, 1990. https://ged.uphf.fr/nuxeo/site/esupversions/7ab53b01-cdfb-4932-ba60-cb5332e3925a.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes d'apprentissages symbolique automatique en vue de leurs applications dans le domaine de la maintenance industrielle. Plus précisément, l'apport des méthodes d'apprentissage inductives basées sur la recherche de similarités entre exemples est envisagé à deux niveaux distincts. Le premier niveau concerne le domaine de la maintenance corrective. L'approche présentée aborde le développement et la mise en œuvre d'un module d'acquisition automatique de connaissance de surface pour le système expert de diagnostic technique Sediag. Ce module basé sur l'utilisation du système inductif Charade, engendre un système de règles à partir des informations mémorisées au cours des sessions de diagnostic antérieures. Le second niveau d'aide, relatif à la maintenance préventive aborde la conception d'un système à base de connaissance dédié à l'exploitation de la base de données des historiques de maintenance. Cette approche repose sur l'association de deux types de connaissances. Le premier est la connaissance induite par le module d'apprentissage à partir de la base de données. La connaissance générale d'experts en maintenance préventive constitue le second type de connaissance utilisé. Le système ainsi réalisé permet d'automatiser l'exploitation des historiques de maintenance et de fournir des conseils de prévention dont l'objectif est d'accroitre l'efficacité de cette maintenance. Enfin, est proposée une architecture intégrée de système à base de connaissance utilisant des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance corrective et préventive.
APA, Harvard, Vancouver, ISO, and other styles
39

Brunie, Vincent. "Reconstruction documentaire pour la lecture des hypertextes : problèmes et méthodes." Compiègne, 1999. http://www.theses.fr/1999COMP1238.

Full text
Abstract:
Le manque de lisibilité des dossiers médicaux informatisés fait que leurs usages sont plus limités que ceux des dossiers sur papier. Face à ce problème, les techniques hypertextuelles proposent un schème d'instrumentation pour la lecture d'un ensemble documents numériques. Néanmoins, la construction d'un hypertexte utile est une tâche difficile. Les instruments de navigation offerts permettent effectivement au lecteur de naviguer librement entre les différents documents, mais leur unité est alors perdue. Les fragments acquièrent une autonomie et des possibilités de réorganisation qui modifient leur sens, et le système n'offre plus les moyens de construction d'une lecture signifiante. Cette analyse du phénomène de désorientation fonde le projet d'une instrumentation basée sur la reconstruction de documents liés à une tâche donnée. Le support papier offre au lecteur des possibilités matérielles de reconstruction documentaire en lui fournissant les moyens de construire des vues sur le dossier qu'il manipule. Les documents numériques n'ont pas cette propriété parce que leur principe de manipulation est calculatoire et non matériel. Pour construire une instrumentation de lecture qui enrôle les fragments dans des documents calculés selon une prescription par les usages, on dote l'hypertexte d'un principe calculatoire compréhensible pour le lecteur. Cette approche conduit à une description structurelle de l'hypertexte et à une spécification de l'instrumentation construite dans les termes de ces structures. Le système expérimental développé construit automatiquement un hypertexte instrumenté. Dans un premier temps, les outils de lecture sont prescrits par les utilisateurs en termes de recomposition à partir des descriptions structurelles des documents d'origine. Ensuite apparaît la nécessité, pour des raisons théoriques et pratiques, de représenter et d'exploiter des structures propres à l'hypertexte. Une solution technique est proposée, implémentée et expérimentée.
APA, Harvard, Vancouver, ISO, and other styles
40

Chatellier, Marc. "Paradoxes des difficultés d'apprentissage de la lecture aux cycles 2 et 3 de l'école élémentaire : les chemins du désir entre (dé)construction, détour et autonomisation." Nantes, 2000. http://www.theses.fr/2000NANT3029.

Full text
Abstract:
Les différents regards que l'on porte sur l'apprentissage de la lecture à l'école élémentaire, nous renvoient au premier abord une image éclatée, confuse. La variété des discours et des pratiques (enseignants, enseignants spécialisés), l'écart qui bien souvent sépare ces deux ordres de réalité, rendent délicate la compréhension de la problématique de la difficulté d'apprentissage de la lecture, rencontrée par certains sujet-apprenants de cycle 2 ou de cycle 3 d'école primaire. A partir de ce constat, une triple reflexion theorique est developpee. Sur le plan paradigmatique et epistemologique, par la consideration des phenomenes complexes en jeu dans l'interaction entre sujets (enfant-eleve, enseignant, parents) lors de l'apprentissage de la lecture; sur le plan conceptuel par la prise en compte des principes dynamiques qui fondent la théorie des systèmes vivants auto-référentiels; sur le plan institutionnel et pragmatique par l'attention portée à certaines formes d'écoutes, à caractère autoiétique et paradoxal, du discours du sujet-apprenant sur ses propres difficultés d'apprentissage l'exploration clinique en direction de ces sujet-apprenants ("signalés" par un discours qui stigmatise la (ou les) difficulté(s)), est effectuée selon une approche méthodologique croisée : d'un côté on considère, en référence au cadre ethnométhodologique du récit de pratique, le discours conscient du sujet (le su) sur ses propres difficultés, et l'on mesure son caractère paradoxal de construction-déconstruction à un niveau métacognitif, de l'autre on mesure, en référence au cadre psychanalytique, les effets de l'écoute rééducative sur la remise en circulation chez le sujet de son désir (l'insu), pour , l'abduire comme fondement de l'articulation entre figurations symboliques, schèmes opératoires et processus désirant. Une démarche clinique, basée sur l'intrication étroite des deux statuts à priori séparés que constituent nos pratiques d'enseignant spécialisé et de chercheur en sciences de l'éducation, a permis une telle investigation auprès d'un nombre réduit d'études de cas. Il apparaît que, si pour l'observateur ces situations procèdent de temps diachroniques à des niveaux différents, pour le sujet- apprenant ces deux formes d'écoute de son discours (pratiques spécialisées pour l'institution scolaire) contribuent à la cohésion d'un temps synchronique, ou su et insu, conscie
APA, Harvard, Vancouver, ISO, and other styles
41

Dubois, R. "Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies cardiaques en électrocardiographie." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://pastel.archives-ouvertes.fr/pastel-00000571.

Full text
Abstract:
L'enregistrement Holter (enregistrement électrocardiographique de 24 heures) est un examen très fréquemment utilisé en cardiologie. Parmi les 100 000 battements enregistrés, seul un petit nombre d'entre eux peut traduire la présence d'une pathologie sous-jacente; l'analyse automatique est donc indispensable. Les outils actuels fonctionnent sur le principe d'un système expert, robuste, mais peu adaptatif et essentiellement limité à la détection et la classification des signaux de dépolarisation ventriculaire. Une analyse plus détaillée des signaux cardiaques permet une bien meilleure détection de nombreuses pathologies, en particulier grâce à l'extraction des signaux d'origine auriculaire et des ondes de repolarisation. Nous proposons dans cette thèse une méthode de décomposition mathématique originale des battements cardiaques sur une base de fonctions appelées "bosses". Contrairement aux régresseurs classiques utilisés en modélisation (ondelettes, RBF...), les bosses sont des fonctions prévues pour modéliser chaque onde caractéristique du battement cardiaque (les ondes P, Q, R, S et T). Chaque battement de l'enregistrement est ainsi décomposé en bosses; puis les labels médicaux P, Q, R, S et T leur sont attribués par des classifieurs (réseaux de neurones). Disposant alors de l'emplacement et de la forme des toutes les ondes caractéristiques pour l'ensemble de l'ECG, nous pouvons désormais repérer automatiquement des anomalies comme l'inversion de l'onde P, jusqu'alors non détectées par les algorithmes sur les enregistrements de longues durées. Cette approche a été testée sur de nombreuses bases de données et a montré toute son efficacité par rapport aux méthodes actuelles dem détection d'anomalies
APA, Harvard, Vancouver, ISO, and other styles
42

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
APA, Harvard, Vancouver, ISO, and other styles
43

Gayraud, Nathalie. "Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4231/document.

Full text
Abstract:
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG
Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability
APA, Harvard, Vancouver, ISO, and other styles
44

Lim, Laurie Baumard Jean. "Difficultés de compréhension en lecture et métacognition étude de cas /." [S.l.] : [s.n.], 2008. http://castore.univ-nantes.fr/castore/GetOAIRef?idDoc=43551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Cara, Michel. "Stratégies d'apprentissage de la lecture musicale à court-terme : mémoire de travail et oculométrie cognitive." Thesis, Dijon, 2013. http://www.theses.fr/2013DIJOL013.

Full text
Abstract:
Tout au long de cette thèse, l’évaluation musicale est traitée comme un objet d’étude latent visant à donner des outils pour l’apprentissage de la lecture musicale. Grâce à l’analyse des mouvements oculaires et les variables provenant de la performance, nous avons défini certaines variables qui rendent compte de l’expertise et des interactions entre différents groupes de niveaux d’expertise musicale lors de l’apprentissage d’un nouveau morceau de musique. De façon plus détaillée, nous avons observé la mise en œuvre de différentes stratégies de prise d’information, de traitement et de récupération de l’information musicale en fonction du niveau pianistique et souligné l’importance d’apprendre en interaction avec la classe et le professeur. Les stratégies sont en même temps ajustées par rapport à la confiance acquise au cours du processus d'acquisition de compétences (Bandura, 1997 ; McPherson et McCormick, 2006). En référence au débat actuel concernant la nature de la lecture de partitions, nous avons comparé les traitements musicaux et verbaux pendant une tâche de lecture « compréhensive » de textes et de partitions. Dans l’ensemble et au regard du modèle de Baddeley (1990), les ressources cognitives des musiciens pendant la lecture musicale seraient mobilisées en fonction de l’expertise et du type de style musical
Throughout this thesis, evaluation of music performance is viewed as a latent object of study in order to provide tools for learning to read music. We have defined some variables from eye movements and music performance accounting for expert performance and interactions between skill groups when learning a new piece of music. In more details, we have observed the use of different strategies for music information intake, processes and information retrieval depending on musicians’ expertise and we have stressed the importance of learning through interaction. In the process of skill acquisition, when self-confidence is gained strategies are simultaneously adjusted (Bandura, 1997; McPherson and McCormick, 2006). In reference to the current debate about the nature of music reading, we have compared musical and verbal processing during comprehensive reading of texts and scores. On the whole, considering the model of Baddeley (1990), musicians’ cognitive resources during music reading would be mobilized depending on the expertise and the music style
APA, Harvard, Vancouver, ISO, and other styles
46

Deslauriers, Renée. "Compréhension en lecture et imagerie mentale chez des élèves en difficulté grave d'apprentissage au primaire /." Thèse, Trois-Rivières : Université du Québec à Trois-Rivières, 1998. http://www.uqtr.ca/biblio/notice/resume/03-2180863R.htm.

Full text
Abstract:
Mémoire (M.A.) - Université du Québec à Trois-Rivières, 1998.
Bibliographie : f. [126]-131. Le résumé et la table des matières sont disponibles en format électronique sur le site Web de la bibliothèque. CaQTU
APA, Harvard, Vancouver, ISO, and other styles
47

Deslauriers, Renée. "Compréhension en lecture et imagerie mentale chez des élèves en difficulté grave d'apprentissage au primaire." Thèse, Université du Québec à Trois-Rivières, 1998. http://depot-e.uqtr.ca/4858/1/000640737.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Bailly, Kévin. "Méthodes d'apprentissage pour l'estimation de la pose de la tête dans des images monoculaires." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00560836.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de PILE, un projet médical d'analyse du regard, des gestes, et des productions vocales d'enfants en bas âge. Dans ce contexte, nous avons conçu et développé des méthodes de détermination de l'orientation de la tête, pierre angulaire des systèmes d'estimation de la direction du regard. D'un point de vue méthodologique, nous avons proposé BISAR (Boosted Input Selection Algorithm for Regression), une méthode de sélection de caractéristiques adaptée aux problèmes de régression. Elle consiste à sélectionner itérativement les entrées d'un réseau de neurones incrémental. Chaque entrée est associée à un descripteur sélectionné à l'aide d'un critère original qui mesure la dépendance fonctionnelle entre un descripteur et les valeurs à prédire. La complémentarité des descripteurs est assurée par un processus de boosting qui modifie, à chaque itération, la distribution des poids associés aux exemples d'apprentissage. Cet algorithme a été validé expérimentalement au travers de deux méthodes d'estimation de la pose de la tête. La première approche apprend directement la relation entre l'apparence d'un visage et sa pose. La seconde aligne un modèle de visage dans une image, puis estime géométriquement l'orientation de ce modèle. Le processus d'alignement repose sur une fonction de coût qui évalue la qualité de l'alignement. Cette fonction est apprise par BISAR à partir d'exemples de modèles plus ou moins bien alignés. Les évaluations de ces méthodes ont donné des résultats équivalents ou supérieurs aux méthodes de l'état de l'art sur différentes bases présentant de fortes variations de pose, d'identité, d'illumination et de conditions de prise de vues.
APA, Harvard, Vancouver, ISO, and other styles
49

Buhot, Arnaud. "Etude de propriétés d'apprentissage supervisé et non supervisé par des méthodes de Physique Statistique." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00001642.

Full text
Abstract:
L'objet de cette thèse est l'étude de diverses propriétés d'apprentissage à partir d'exemples par des méthodes de Physique Statistique, notamment, par la méthode des répliques. Des tâches supervisées, correspondant à la classification binaire de données, ainsi que des tâches non supervisées, comme l'estimation paramétrique d'une densité de probabilité, sont considérées. Dans la première partie, une approche variationnelle permet de déterminer la performance de l'apprentissage optimal d'une direction d'anisotropie, et de déduire une fonction de coût permettant d'obtenir ces performances optimales. Dans le cas de l'apprentissage supervisé d'une tâche linéairement séparable, des simulations numériques confirmant nos résultats théoriques ont permis de déterminer les effets de taille finie. Dans le cas d'une densité de probabilité constituée de deux gaussiennes, la performance de l'apprentissage optimal présente de nombreuses transitions de phases en fonction du nombre de données. Ces résultats soulèvent une controverse entre la théorie variationnelle et l'approche bayesienne de l'apprentissage optimal. Dans la deuxième partie, nous étudions deux approches différentes de l'apprentissage de tâches de classification complexes. La première approche considérée est celle des machines à exemples supports. Nous avons étudié une famille de ces machines pour laquelle les séparateurs linéaire et quadratique sont deux cas particuliers. La capacité, les valeurs typiques de la marge et du nombre d'exemples supports, sont déterminées. La deuxième approche considérée est celle d'une machine de parité apprenant avec un algorithme incrémental. Cet algorithme construit progressivement un réseau de neurones à une couche cachée. La capacité théorique obtenue pour l'algorithme considéré est proche de celle de la machine de parité.
APA, Harvard, Vancouver, ISO, and other styles
50

Sokol, Marina. "Méthodes d'apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998394.

Full text
Abstract:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l'échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography