Dissertations / Theses on the topic 'Apprentissage en continu'

To see the other types of publications on this topic, follow the link: Apprentissage en continu.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage en continu.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Munos, Rémi. "Apprentissage par renforcement, étude du cas continu." Paris, EHESS, 1997. http://www.theses.fr/1997EHESA021.

Full text
Abstract:
Le probleme aborde est comment concevoir des methodes permettant a des systemes artificiels d' << apprendre par l'experience >>, c'est a dire de resoudre une tache sans etre explicitement programme pour cela, mais seulement a partir du schema d'apprentissage : essais -> erreur ou succes ii s'agit de definir des methodes, sous forme d'algorithmes, permettant la modification des parametres internes du systeme afin de definir des prises de decisions pertinentes. L'approche developpee est celle de << l'apprentissage par renforcement >> qui se definit naturellement sous la forme d'un probleme de controle optimal pour lequel les donnees de la dynamique d'etat sont a priori (au moins partiellement) inconnues du systeme. Cette these est une etude formelle du cas ou l'espace des etats possibles ainsi que le temps auquel les decisions sont prises sont des variable continues ; la preoccupation majeure de ce travail etant l'etude de la convergences des methodes employees. Nous decrivons le formalisme du controle optimal et presentons la methode de la programmation dynamique : definition de la fonction valeur et enonce l'equation de hamiltonjacobi-bellman associee. Nous introduisons les notions desolutions de viscosite et decrivons des methodes d'approximation numeriques a partir de schemas convergents. Puis nous donnons un theoreme de convergence d'algorithmes bases sur les schemas precedents -ce qui represente la contribution majeure de ce travail. Ce theoreme fournit une methode tres generale pour concevoir des algorithmes d'apprentissage par renforcement convergents. Enfin nous illustrons la methode avec divers exemples d'algorithmes varies portant sur des dynamiques d'etat deterministes ou stochastiques, selon des methodes dites directes ou indirectes et a partir de schemas bases sur des methodes aux differences finies ou aux elements finis.
APA, Harvard, Vancouver, ISO, and other styles
2

Sors, Arnaud. "Apprentissage profond pour l'analyse de l'EEG continu." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS006/document.

Full text
Abstract:
Ces travaux de recherche visent à développer des méthodes d’apprentissage automatique pour l’analyse de l’électroencéphalogramme (EEG) continu. L’EEG continu est une modalité avantageuse pour l’évaluation fonctionnelle des états cérébraux en réanimation ou pour d’autres applications. Cependant son utilisation aujourd’hui demeure plus restreinte qu’elle ne pourrait l’être, car dans la plupart des cas l’interprétation est effectuée visuellement par des spécialistes.Les sous-parties de ce travail s’articulent autour de l’évaluation pronostique du coma post-anoxique, choisie comme application pilote. Un petit nombre d’enregistrement longue durée a été réalisé, et des enregistrements existants ont été récupérés au CHU Grenoble.Nous commençons par valider l’efficacité des réseaux de neurones profonds pour l’analyse EEG d’échantillons bruts. Nous choisissons à cet effet de travailler sur la classification de stades de sommeil. Nous utilisons un réseau de neurones convolutionnel adapté pour l’EEG que nous entrainons et évaluons sur le jeu de données SHHS (Sleep Heart Health Study). Cela constitue le premier system neuronal à cette échelle (5000 patients) pour l’analyse du sommeil. Les performances de classification atteignent ou dépassent l’état de l’art.En utilisation réelle, pour la plupart des applications cliniques le défi principal est le manque d’annotations adéquates sur les patterns EEG ou sur de court segments de données (et la difficulté d’en établir). Les annotations disponibles sont généralement haut niveau (par exemple, le devenir clinique) est sont donc peu nombreuses. Nous recherchons comment apprendre des représentations compactes de séquences EEG de façon non-supervisée/semi-supervisée. Le domaine de l’apprentissage non supervisé est encore jeune. Pour se comparer aux travaux existants nous commençons avec des données de type image, et investiguons l’utilisation de réseaux adversaires génératifs (GANs) pour l’apprentissage adversaire non-supervisé de représentations. La qualité et la stabilité de différentes variantes sont évaluées. Nous appliquons ensuite un GAN de Wasserstein avec pénalité sur les gradients à la génération de séquences EEG. Le système, entrainé sur des séquences mono-piste de patients en coma post anoxique, est capable de générer des séquences réalistes. Nous développons et discutons aussi des idées originales pour l’apprentissage de représentations en alignant des distributions dans l’espace de sortie du réseau représentatif.Pour finir, les signaux EEG multipistes ont des spécificités qu’il est souhaitable de prendre en compte dans les architectures de caractérisation. Chaque échantillon d’EEG est un mélange instantané des activités d’un certain nombre de sources. Partant de ce constat nous proposons un système d’analyse composé d’un sous-système d’analyse spatiale suivi d’un sous-système d’analyse temporelle. Le sous-système d’analyse spatiale est une extension de méthodes de séparation de sources construite à l’aide de couches neuronales avec des poids adaptatifs pour la recombinaison des pistes, c’est à dire que ces poids ne sont pas appris mais dépendent de caractéristiques du signal d’entrée. Nous montrons que cette architecture peut apprendre à réaliser une analyse en composantes indépendantes, si elle est entrainée sur une mesure de non-gaussianité. Pour l’analyse temporelle, des réseaux convolutionnels classiques utilisés séparément sur les pistes recombinées peuvent être utilisés
The objective of this research is to explore and develop machine learning methods for the analysis of continuous electroencephalogram (EEG). Continuous EEG is an interesting modality for functional evaluation of cerebral state in the intensive care unit and beyond. Today its clinical use remains more limited that it could be because interpretation is still mostly performed visually by trained experts. In this work we develop automated analysis tools based on deep neural models.The subparts of this work hinge around post-anoxic coma prognostication, chosen as pilot application. A small number of long-duration records were performed and available existing data was gathered from CHU Grenoble. Different components of a semi-supervised architecture that addresses the application are imagined, developed, and validated on surrogate tasks.First, we validate the effectiveness of deep neural networks for EEG analysis from raw samples. For this we choose the supervised task of sleep stage classification from single-channel EEG. We use a convolutional neural network adapted for EEG and we train and evaluate the system on the SHHS (Sleep Heart Health Study) dataset. This constitutes the first neural sleep scoring system at this scale (5000 patients). Classification performance reaches or surpasses the state of the art.In real use for most clinical applications, the main challenge is the lack of (and difficulty of establishing) suitable annotations on patterns or short EEG segments. Available annotations are high-level (for example, clinical outcome) and therefore they are few. We search how to learn compact EEG representations in an unsupervised/semi-supervised manner. The field of unsupervised learning using deep neural networks is still young. To compare to existing work we start with image data and investigate the use of generative adversarial networks (GANs) for unsupervised adversarial representation learning. The quality and stability of different variants are evaluated. We then apply Gradient-penalized Wasserstein GANs on EEG sequences generation. The system is trained on single channel sequences from post-anoxic coma patients and is able to generate realistic synthetic sequences. We also explore and discuss original ideas for learning representations through matching distributions in the output space of representative networks.Finally, multichannel EEG signals have specificities that should be accounted for in characterization architectures. Each EEG sample is an instantaneous mixture of the activities of a number of sources. Based on this statement we propose an analysis system made of a spatial analysis subsystem followed by a temporal analysis subsystem. The spatial analysis subsystem is an extension of source separation methods built with a neural architecture with adaptive recombination weights, i.e. weights that are not learned but depend on features of the input. We show that this architecture learns to perform Independent Component Analysis if it is trained on a measure of non-gaussianity. For temporal analysis, standard (shared) convolutional neural networks applied on separate recomposed channels can be used
APA, Harvard, Vancouver, ISO, and other styles
3

Zimmer, Matthieu. "Apprentissage par renforcement développemental." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0008/document.

Full text
Abstract:
L'apprentissage par renforcement permet à un agent d'apprendre un comportement qui n'a jamais été préalablement défini par l'homme. L'agent découvre l'environnement et les différentes conséquences de ses actions à travers des interactions avec celui-ci : il apprend de sa propre expérience, sans avoir de connaissances préétablies des buts ni des effets de ses actions. Cette thèse s'intéresse à la façon dont l'apprentissage profond peut aider l'apprentissage par renforcement à gérer des espaces continus et des environnements ayant de nombreux degrés de liberté dans l'optique de résoudre des problèmes plus proches de la réalité. En effet, les réseaux de neurones ont une bonne capacité de mise à l'échelle et un large pouvoir de représentation. Ils rendent possible l'approximation de fonctions sur un espace continu et permettent de s'inscrire dans une approche développementale nécessitant peu de connaissances a priori sur le domaine. Nous cherchons comment réduire l'expérience nécessaire à l'agent pour atteindre un comportement acceptable. Pour ce faire, nous avons proposé le cadre Neural Fitted Actor-Critic qui définit plusieurs algorithmes acteur-critique efficaces en données. Nous examinons par quels moyens l'agent peut exploiter pleinement les transitions générées par des comportements précédents en intégrant des données off-policy dans le cadre proposé. Finalement, nous étudions de quelle manière l'agent peut apprendre plus rapidement en tirant parti du développement de son corps, en particulier, en procédant par une augmentation progressive de la dimensionnalité de son espace sensorimoteur
Reinforcement learning allows an agent to learn a behavior that has never been previously defined by humans. The agent discovers the environment and the different consequences of its actions through its interaction: it learns from its own experience, without having pre-established knowledge of the goals or effects of its actions. This thesis tackles how deep learning can help reinforcement learning to handle continuous spaces and environments with many degrees of freedom in order to solve problems closer to reality. Indeed, neural networks have a good scalability and representativeness. They make possible to approximate functions on continuous spaces and allow a developmental approach, because they require little a priori knowledge on the domain. We seek to reduce the amount of necessary interaction of the agent to achieve acceptable behavior. To do so, we proposed the Neural Fitted Actor-Critic framework that defines several data efficient actor-critic algorithms. We examine how the agent can fully exploit the transitions generated by previous behaviors by integrating off-policy data into the proposed framework. Finally, we study how the agent can learn faster by taking advantage of the development of his body, in particular, by proceeding with a gradual increase in the dimensionality of its sensorimotor space
APA, Harvard, Vancouver, ISO, and other styles
4

Zimmer, Matthieu. "Apprentissage par renforcement développemental." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0008.

Full text
Abstract:
L'apprentissage par renforcement permet à un agent d'apprendre un comportement qui n'a jamais été préalablement défini par l'homme. L'agent découvre l'environnement et les différentes conséquences de ses actions à travers des interactions avec celui-ci : il apprend de sa propre expérience, sans avoir de connaissances préétablies des buts ni des effets de ses actions. Cette thèse s'intéresse à la façon dont l'apprentissage profond peut aider l'apprentissage par renforcement à gérer des espaces continus et des environnements ayant de nombreux degrés de liberté dans l'optique de résoudre des problèmes plus proches de la réalité. En effet, les réseaux de neurones ont une bonne capacité de mise à l'échelle et un large pouvoir de représentation. Ils rendent possible l'approximation de fonctions sur un espace continu et permettent de s'inscrire dans une approche développementale nécessitant peu de connaissances a priori sur le domaine. Nous cherchons comment réduire l'expérience nécessaire à l'agent pour atteindre un comportement acceptable. Pour ce faire, nous avons proposé le cadre Neural Fitted Actor-Critic qui définit plusieurs algorithmes acteur-critique efficaces en données. Nous examinons par quels moyens l'agent peut exploiter pleinement les transitions générées par des comportements précédents en intégrant des données off-policy dans le cadre proposé. Finalement, nous étudions de quelle manière l'agent peut apprendre plus rapidement en tirant parti du développement de son corps, en particulier, en procédant par une augmentation progressive de la dimensionnalité de son espace sensorimoteur
Reinforcement learning allows an agent to learn a behavior that has never been previously defined by humans. The agent discovers the environment and the different consequences of its actions through its interaction: it learns from its own experience, without having pre-established knowledge of the goals or effects of its actions. This thesis tackles how deep learning can help reinforcement learning to handle continuous spaces and environments with many degrees of freedom in order to solve problems closer to reality. Indeed, neural networks have a good scalability and representativeness. They make possible to approximate functions on continuous spaces and allow a developmental approach, because they require little a priori knowledge on the domain. We seek to reduce the amount of necessary interaction of the agent to achieve acceptable behavior. To do so, we proposed the Neural Fitted Actor-Critic framework that defines several data efficient actor-critic algorithms. We examine how the agent can fully exploit the transitions generated by previous behaviors by integrating off-policy data into the proposed framework. Finally, we study how the agent can learn faster by taking advantage of the development of his body, in particular, by proceeding with a gradual increase in the dimensionality of its sensorimotor space
APA, Harvard, Vancouver, ISO, and other styles
5

Lefort, Mathieu. "Apprentissage spatial de corrélations multimodales par des mécanismes d'inspiration corticale." Phd thesis, Université Nancy II, 2012. http://tel.archives-ouvertes.fr/tel-00756687.

Full text
Abstract:
Cette thèse traite de la problématique de l'unification de différents flux d'informations modales qui peuvent provenir des senseurs d'un agent. Cette unification, inspirée des expériences psychologiques comme l'effet ventriloque, s'appuie sur la détection de corrélations, définies comme des motifs spatiaux qui apparaissent régulièrement dans les flux d'entrée. L'apprentissage de l'espace des corrélations du flux d'entrée échantillonne cet espace et généralise les échantillons appris. Cette thèse propose des principes fonctionnels pour le traitement multimodal de l'information qui ont aboutit à l'architecture connexionniste, générique, modulaire et cortico-inspirée SOMMA (Self-Organizing Maps for Multimodal Association). Dans ce modèle, le traitement de chaque modalité s'effectue au sein d'une carte corticale. L'unification multimodale de l'information est obtenue par la mise en relation réciproque de ces cartes. L'échantillonnage et la généralisation des corrélations reposent sur une auto-organisation contrainte des cartes. Ce modèle est caractérisé par un apprentissage progressif de ces propriétés fonctionnelles: les propriétés monomodales amorcent l'émergence des propriétés multimodales et, dans le même temps, l'apprentissage de certaines corrélations par chaque carte est un préalable à l'auto-organisation de ces cartes. Par ailleurs, l'utilisation d'une architecture connexionniste et d'un apprentissage continu et non supervisé fournit au modèle des propriétés de robustesse et d'adaptabilité qui sont généralement absentes des approches informatiques classiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Mainsant, Marion. "Apprentissage continu sous divers scénarios d'arrivée de données : vers des applications robustes et éthiques de l'apprentissage profond." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALS045.

Full text
Abstract:
Le cerveau humain reçoit en continu des informations en provenance de stimuli externes. Il a alors la capacité de s’adapter à de nouvelles connaissances tout en conservant une mémoire précise de la connaissance apprise par le passé. De plus en plus d’algorithmes d’intelligence artificielle visent à apprendre des connaissances à la manière d’un être humain. Ils doivent alors être mis à jour sur des données variées arrivant séquentiellement et disponibles sur un temps limité. Cependant, un des verrous majeurs de l’apprentissage profond réside dans le fait que lors de l’apprentissage de nouvelles connaissances, les anciennes sont quant-à-elles perdues définitivement, c’est ce que l’on appelle « l’oubli catastrophique ». De nombreuses méthodes ont été proposées pour répondre à cette problématique, mais celles-ci ne sont pas toujours applicables à une mise en situation réelle car elles sont construites pour obtenir les meilleures performances possibles sur un seul scénario d’arrivée de données à la fois. Par ailleurs, les meilleures méthodes existant dans l’état de l’art sont la plupart du temps ce que l’on appelle des méthodes à « rejeu de données » qui vont donc conserver une petite mémoire du passé, posant ainsi un problème dans la gestion de la confidentialité des données ainsi que dans la gestion de la taille mémoire disponible.Dans cette thèse, nous proposons d’explorer divers scénarios d’arrivée de données existants dans la littérature avec, pour objectif final, l’application à la reconnaissance faciale d’émotion qui est essentielle pour les interactions humain-machine. Pour cela nous présenterons l’algorithme Dream Net – Data-Free qui est capable de s’adapter à un vaste nombre de scenarii d’arrivée des données sans stocker aucune donnée passée. Cela lui permet donc de préserver la confidentialité des données apprises. Après avoir montré la robustesse de cet algorithme comparé aux méthodes existantes de l’état de l’art sur des bases de données classiques de la vision par ordinateur (Mnist, Cifar-10, Cifar-100 et Imagenet-100), nous verrons qu’il fonctionne également sur des bases de données de reconnaissance faciale d’émotions. En s’appuyant sur ces résultats, nous proposons alors un démonstrateur embarquant l’algorithme sur une carte Nvidia Jetson nano. Enfin nous discuterons la pertinence de notre approche pour la réduction des biais en intelligence artificielle ouvrant ainsi des perspectives vers une IA plus robuste et éthique
The human brain continuously receives information from external stimuli. It then has the ability to adapt to new knowledge while retaining past events. Nowadays, more and more artificial intelligence algorithms aim to learn knowledge in the same way as a human being. They therefore have to be able to adapt to a large variety of data arriving sequentially and available over a limited period of time. However, when a deep learning algorithm learns new data, the knowledge contained in the neural network overlaps old one and the majority of the past information is lost, a phenomenon referred in the literature as catastrophic forgetting. Numerous methods have been proposed to overcome this issue, but as they were focused on providing the best performance, studies have moved away from real-life applications where algorithms need to adapt to changing environments and perform, no matter the type of data arrival. In addition, most of the best state of the art methods are replay methods which retain a small memory of the past and consequently do not preserve data privacy.In this thesis, we propose to explore data arrival scenarios existing in the literature, with the aim of applying them to facial emotion recognition, which is essential for human-robot interactions. To this end, we present Dream Net - Data-Free, a privacy preserving algorithm, able to adapt to a large number of data arrival scenarios without storing any past samples. After demonstrating the robustness of this algorithm compared to existing state-of-the-art methods on standard computer vision databases (Mnist, Cifar-10, Cifar-100 and Imagenet-100), we show that it can also adapt to more complex facial emotion recognition databases. We then propose to embed the algorithm on a Nvidia Jetson nano card creating a demonstrator able to learn and predict emotions in real-time. Finally, we discuss the relevance of our approach for bias mitigation in artificial intelligence, opening up perspectives towards a more ethical AI
APA, Harvard, Vancouver, ISO, and other styles
7

Lesort, Timothée. "Continual Learning : Tackling Catastrophic Forgetting in Deep Neural Networks with Replay Processes." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAE003.

Full text
Abstract:
Les humains apprennent toute leur vie. Ils accumulent des connaissances à partir d'une succession d'expériences d'apprentissage et en mémorisent les aspects essentiels sans les oublier. Les réseaux de neurones artificiels ont des difficultés à apprendre dans de telles conditions. Ils ont en général besoin d'ensembles de données rigoureusement préparés pour pouvoir apprendre à résoudre des problèmes comme de la classification ou de la régression. En particulier, lorsqu'ils apprennent sur des séquences d'ensembles de données, les nouvelles expériences leurs font oublier les anciennes. Ainsi, ils sont souvent incapables d'appréhender des scénarios réels tels ceux de robots autonomes apprenant en temps réel à s'adapter à de nouvelles situations et devant résoudre des problèmes sans oublier leurs expériences passées.L'apprentissage continu est une branche de l'apprentissage automatique s'attaquant à ce type de scénarios. Les algorithmes continus sont créés pour apprendre des connaissances, les enrichir et les améliorer au cours d'un curriculum d'expériences d'apprentissage.Dans cette thèse, nous proposons d'explorer l'apprentissage continu avec rejeu de données. Les méthodes de rejeu de données rassemblent les méthodes de répétitions et les méthodes de rejeu par génération. Le rejeu par génération consiste à utiliser un réseau de neurones auxiliaire apprenant à générer les données actuelles. Ainsi plus tard le réseau auxiliaire pourra être utilisé pour régénérer des données du passé et les remémorer au modèle principal. La répétition a le même objectif, mais cette méthode sauve simplement des images spécifiques et les rejoue plus tard au modèle principal pour éviter qu'il ne les oublie. Les méthodes de rejeu permettent de trouver un compromis entre l'optimisation de l'objectif d'apprentissage actuel et ceux du passé. Elles permettent ainsi d'apprendre sans oublier sur des séquences de tâches.Nous montrons que ces méthodes sont prometteuses pour l'apprentissage continu.En particulier, elles permettent la réévaluation des données du passé avec des nouvelles connaissances et de confronter des données issues de différentes expériences. Nous démontrons la capacité des méthodes de rejeu à apprendre continuellement à travers des tâches d'apprentissage non-supervisées, supervisées et de renforcements
Humans learn all their life long. They accumulate knowledge from a sequence of learning experiences and remember the essential concepts without forgetting what they have learned previously. Artificial neural networks struggle to learn similarly. They often rely on data rigorously preprocessed to learn solutions to specific problems such as classification or regression.In particular, they forget their past learning experiences if trained on new ones.Therefore, artificial neural networks are often inept to deal with real-lifesuch as an autonomous-robot that have to learn on-line to adapt to new situations and overcome new problems without forgetting its past learning-experiences.Continual learning (CL) is a branch of machine learning addressing this type of problems.Continual algorithms are designed to accumulate and improve knowledge in a curriculum of learning-experiences without forgetting.In this thesis, we propose to explore continual algorithms with replay processes.Replay processes gather together rehearsal methods and generative replay methods.Generative Replay consists of regenerating past learning experiences with a generative model to remember them. Rehearsal consists of saving a core-set of samples from past learning experiences to rehearse them later. The replay processes make possible a compromise between optimizing the current learning objective and the past ones enabling learning without forgetting in sequences of tasks settings.We show that they are very promising methods for continual learning. Notably, they enable the re-evaluation of past data with new knowledge and the confrontation of data from different learning-experiences. We demonstrate their ability to learn continually through unsupervised learning, supervised learning and reinforcement learning tasks
APA, Harvard, Vancouver, ISO, and other styles
8

Lefort, Mathieu. "Apprentissage spatial de corrélations multimodales par des mécanismes d'inspiration corticale." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0106.

Full text
Abstract:
Cette thèse traite de la problématique de l'unification de différents flux d'informations modales qui peuvent provenir des senseurs d'un agent. Cette unification, inspirée des expériences psychologiques comme l'effet ventriloque, s'appuie sur la détection de corrélations, définies comme des motifs spatiauxqui apparaissent régulièrement dans les flux d'entrée. L'apprentissage de l'espace des corrélations du flux d'entrée échantillonne cet espace et généralise les échantillons appris. Cette thèse propose des principes fonctionnels pour le traitement multimodal de l'information qui ont aboutit à l'architectureconnexionniste, générique, modulaire et cortico-inspirée SOMMA (Self-Organizing Maps for Multimodal Association). Dans ce modèle, le traitement de chaque modalité s'effectue au sein d'une carte corticale. L'unification multimodale de l'information est obtenue par la mise en relation réciproque de ces cartes.L'échantillonnage et la généralisation des corrélations reposent sur une auto-organisation contrainte des cartes. Ce modèle est caractérisé par un apprentissage progressif de ces propriétés fonctionnelles : les propriétés monomodales amorcent l'émergence des propriétés multimodales et, dans le même temps, l'apprentissagede certaines corrélations par chaque carte est un préalable à l'auto-organisation de ces cartes. Par ailleurs, l'utilisation d'une architecture connexionniste et d'un apprentissage continu et non supervisé fournit au modèle des propriétés de robustesse et d'adaptabilité qui sont généralement absentes des approches informatiques classiques
This thesis focuses on unifying multiple modal data flows that may be provided by sensors of an agent. This unification, inspired by psychological experiments like the ventriloquist effect, is based on detecting correlations which are defined as temporally recurrent spatial patterns that appear in the input flows. Learning of the input flow correlations space consists on sampling this space and generalizing theselearned samples. This thesis proposed some functional paradigms for multimodal data processing, leading to the connectionist, generic, modular and cortically inspired architecture SOMMA (Self-Organizing Maps for Multimodal Association). In this model, each modal stimulus is processed in a cortical map. Interconnectionof these maps provides an unifying multimodal data processing. Sampling and generalization of correlations are based on the constrained self-organization of each map. The model is characterised by a gradual emergence of these functional properties : monomodal properties lead to the emergence of multimodal ones and learning of correlations in each map precedes self-organization of these maps.Furthermore, the use of a connectionist architecture and of on-line and unsupervised learning provides plasticity and robustness properties to the data processing in SOMMA. Classical artificial intelligence models usually miss such properties
APA, Harvard, Vancouver, ISO, and other styles
9

Oulhadj, Hamouche. "Des primitives aux lettres : une méthode structurelle de reconnaissance en ligne de mots d'écriture cursive manuscrite avec un apprentissage continu." Paris 12, 1990. http://www.theses.fr/1990PA120045.

Full text
Abstract:
Depuis des années, la communication homme-machine par l'intermédiaire de l'écriture naturelle se heurte, sans succès, au problème complexe de la diversité des formes a identifier. Pour appréhender un tel problème, une nouvelle méthode de reconnaissance structurelle et analytique est proposée. L'approche développée est fondée sur des primitives topologiques insensibles a certaines variations de traces (changement de position et d'échelle, inclinaisons des lettres). Elle assume l'hypothèse d'existence d'un modèle collectif d'écriture que chacun reproduit avec une déformation propre. Ce modèle générique permet de considérer que tout mot écrit par un scripteur donne peut être assimilé a une séquence de lettres prototypes plus ou moins dégénérées. Ainsi, l'information nécessaire à la description d'une lettre repose non seulement sur les primitives représentant cette lettre mais aussi sur l'évaluation du taux de dégénérescence susceptible d'affecter cette lettre en cours de trace. Dans l'approche développée, le problème très délicat de la segmentation du mot est également soulevé. Pour effectuer une segmentation qui correspond exactement aux lettres à reconnaître, une méthode de segmentation intelligente, basée sur une stratégie de prédiction-vérification est proposée. Cette méthode permet de combiner la segmentation du mot et la reconnaissance des lettres dans une opération unique, évitant la segmentation a priori qui est source d'erreurs potentielles. Ces différentes propriétés, renforcées par divers types de connaissances relatives au langage écrit, sont a l'origine des bonnes performances du système étudié
APA, Harvard, Vancouver, ISO, and other styles
10

Douillard, Arthur. "Continual Learning for Computer Vision." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS165.

Full text
Abstract:
Depuis le début des années 2010 la recherche en apprentissage automatique a orienté son attention vers les efficaces réseaux de neurones profonds. Plus particulièrement, toutes les tâches de vision par ordinateur utilisent désormais des réseaux convolutionnels. Ces modèles apprennent à détecter des motifs d'abord simples (contours, textures) puis de plus en plus complexes jusqu'à apprendre le concept d'objets en particulier. Malgré les grandes avancées dans le domaine des réseaux de neurones profonds, un problème important subsiste : comment apprendre une quantité croissante de concepts, à la manière d'un élève durant sa scolarité, sans oublier les précédentes connaissances. Ce problème d'apprentissage continu est complexe : si non traité, les réseaux de neurones oublient catastrophiquement. L'objectif de cette thèse était donc de résoudre de ce problème. J'ai pu dans un premier temps développer plusieurs méthodes pour forcer un comportement similaire entre la version du modèle ayant appris de nouveaux concepts et sa précédente itération. Contrairement au reste de la littérature, qui imposait des contraintes sur le comportement final du modèle, je me suis intéressé aux représentations internes. Dans un second temps, j'ai considéré l'apprentissage continu pour la tâche de segmentation sémantique. Cette tâche complexe possède des problèmes inédits dans un contexte continu en plus de l'oubli catastrophique. J'ai pu proposer plusieurs approches complémentaires pour les résoudre. Plus précisément : une nouvelle méthode de contraintes, une technique de pseudo-annotations et une manière efficace de révisions d'objets. Et enfin, dans un troisième et dernier temps, je m'intéresse aux réseaux de neurones dynamiques,pouvant créer de nouveaux neurones à travers leur existence pour résoudre un nombre croissant de tâche. Les méthodes précédentes grandissent avec peu de contrôles, résultant en des modèles extrêmement lourd, et souvent aussi lents. Donc, en m'inspirant des récents transformers,j'ai conçu une stratégie dynamique avec un coût pratiquement nul, mais ayant malgré tout des performances à l'état-de-l'art
I first review the existing methods based on regularization for continual learning. While regularizing a model's probabilities is very efficient to reduce forgetting in large-scale datasets, there are few works considering constraints on intermediate features. I cover in this chapter two contributions aiming to regularize directly the latent space of ConvNet. The first one, PODNet, aims to reduce the drift of spatial statistics between the old and new model, which in effect reduces drastically forgetting of old classes while enabling efficient learning of new classes. I show in a second part a complementary method where we avoid pre-emptively forgetting by allocating locations in the latent space for yet unseen future class. Then, I describe a recent application of CIL to semantic segmentation. I show that the very nature of CSS offer new specific challenges, namely forgetting on large images and a background shift. We tackle the first problem by extending our distillation loss introduced in the previous chapter to multi-scales. The second problem is solved by an efficient pseudo-labeling strategy. Finally, we consider the common rehearsal learning, but applied this time to CSS. I show that it cannot be used naively because of memory complexity and design a light-weight rehearsal that is even more efficient. Finally, I consider a completely different approach to continual learning: dynamic networks where the parameters are extended during training to adapt to new tasks. Previous works on this domain are hard to train and often suffer from parameter count explosion. For the first time in continual computer vision, we propose to use the Transformer architecture: the model dimension mostly fixed and shared across tasks, except for an expansion of learned task tokens. With an encoder/decoder strategy where the decoder forward is specialized by a task token, we show state-of-the-art robustness to forgetting while our memory and computational complexities barely grow
APA, Harvard, Vancouver, ISO, and other styles
11

Coria, Juan Manuel. "Continual Representation Learning in Written and Spoken Language." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG025.

Full text
Abstract:
L'apprentissage automatique a récemment connu des avancées majeures, mais les modèles actuels sont généralement entraînés une fois sur une tâche cible et leurs paramètres sont rarement révisés.Ce problème affecte les performances après la mise en production car les spécifications des tâches et les données peuvent évoluer avec le temps.Pour résoudre ce problème, l'apprentissage continu propose un entraînement au fil du temps, à mesure que de nouvelles données sont disponibles.Cependant, les modèles entraînés de cette manière souffrent d'une perte de performance sur les exemples déjà vus, un phénomène appelé oubli catastrophique.De nombreuses études ont proposé différentes stratégies pour prévenir l'oubli, mais elles s'appuient souvent sur des données étiquetées rarement disponibles en pratique. Dans cette thèse, nous étudions l'apprentissage continu pour la langue écrite et parlée.Notre objectif est de concevoir des systèmes autonomes et auto-apprenants capables d'exploiter les données disponibles sur le terrain pour s'adapter aux nouveaux environnements.Contrairement aux travaux récents sur l'apprentissage de représentations à usage général, nous proposons d'exploiter des représentations adaptées à une tâche cible.En effet, ces dernières pourraient être plus faciles à interpréter et à exploiter par des méthodes non supervisés et plus robustes à l'oubli, comme le clustering. Dans ce travail, nous améliorons notre compréhension de l'apprentissage continu dans plusieurs contextes.Nous montrons que les représentations spécifiques à une tâche permettent un apprentissage continu efficace à faibles ressources, et que les prédictions d'un modèle peuvent être exploitées pour l'auto-apprentissage
Although machine learning has recently witnessed major breakthroughs, today's models are mostly trained once on a target task and then deployed, rarely (if ever) revisiting their parameters.This problem affects performance after deployment, as task specifications and data may evolve with user needs and distribution shifts.To solve this, continual learning proposes to train models over time as new data becomes available.However, models trained in this way suffer from significant performance loss on previously seen examples, a phenomenon called catastrophic forgetting.Although many studies have proposed different strategies to prevent forgetting, they often rely on labeled data, which is rarely available in practice. In this thesis, we study continual learning for written and spoken language.Our main goal is to design autonomous and self-learning systems able to leverage scarce on-the-job data to adapt to the new environments they are deployed in.Contrary to recent work on learning general-purpose representations (or embeddings), we propose to leverage representations that are tailored to a downstream task.We believe the latter may be easier to interpret and exploit by unsupervised training algorithms like clustering, that are less prone to forgetting. Throughout our work, we improve our understanding of continual learning in a variety of settings, such as the adaptation of a language model to new languages for sequence labeling tasks, or even the adaptation to a live conversation in the context of speaker diarization.We show that task-specific representations allow for effective low-resource continual learning, and that a model's own predictions can be exploited for full self-learning
APA, Harvard, Vancouver, ISO, and other styles
12

Gaya, Jean-Baptiste. "Subspaces of Policies for Deep Reinforcement Learning." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS075.

Full text
Abstract:
Ce travail explore les "Sous-espaces de politiques pour l'apprentissage par renforcement profond", introduisant une approche novatrice pour relever les défis d'adaptabilité et de généralisation dans l'apprentissage par renforcement profond (RL). Situé dans le contexte plus large de la révolution de l'IA, cette recherche met l'accent sur la transition vers des modèles évolutifs et généralisables en RL, inspirée par les avancées des architectures et méthodologies d'apprentissage profond. Elle identifie les limites des applications actuelles de RL, notamment pour atteindre une généralisation à travers diverses tâches et domaines, proposant un changement de paradigme vers des méthodes adaptatives. La recherche aborde d'abord la généralisation zero-shot, évaluant la maturité de l'apprentissage profond par renforcement pour généraliser à des tâches inédites sans entraînement supplémentaire. À travers des investigations sur la généralisation morphologique et l'apprentissage par renforcement multi-objectif (MORL), des limitations critiques des méthodes actuelles sont identifiées, et de nouvelles approches pour améliorer les capacités de généralisation sont introduites. Notamment, les travaux sur le moyennage des poids en MORL présentent une méthode simple pour optimiser plusieurs objectifs, montrant un potentiel prometteur pour une exploration future.La contribution principale réside dans le développement d'un cadre de "Sous-espaces de politiques". Cette approche novatrice préconise le maintien d'un paysage dynamique de solutions dans un espace paramétrique plus petit, tirant profit du moyennage des poids des réseaux de neurones. Une diversité fonctionnelle est obtenue avec un minimum de surcharge computationnelle grâce à l'interpolation des poids entre les paramètres des réseaux de neurones. Cette méthodologie est explorée à travers diverses expériences et contextes, y compris l'adaptation few-shot et l'apprentissage par renforcement continu, démontrant son efficacité et son potentiel d'évolutivité et d'adaptabilité dans des tâches RL complexes.La conclusion revient sur le parcours de la recherche, soulignant les implications du cadre des "Sous-espaces de politiques" pour les futures recherches en IA. Plusieurs directions futures sont esquissées, notamment l'amélioration de l'évolutivité des méthodes de sous-espaces, l'exploration de leur potentiel dans des contextes décentralisés, et la prise en compte des défis en matière d'efficacité et d'interprétabilité. Cette contribution fondamentale au domaine du RL ouvre la voie à des solutions innovantes pour relever les défis de longue date en matière d'adaptabilité et de généralisation, marquant une étape significative vers le développement d'agents autonomes capables de naviguer de manière transparente dans un large éventail de tâches
This work explores "Subspaces of Policies for Deep Reinforcement Learning," introducing an innovative approach to address adaptability and generalization challenges in deep reinforcement learning (RL). Situated within the broader context of the AI revolution, this research emphasizes the shift toward scalable and generalizable models in RL, inspired by advancements in deep learning architectures and methodologies. It identifies the limitations of current RL applications, particularly in achieving generalization across varied tasks and domains, proposing a paradigm shift towards adaptive methods.The research initially tackles zero-shot generalization, assessing deep RL's maturity in generalizing across unseen tasks without additional training. Through investigations into morphological generalization and multi-objective reinforcement learning (MORL), critical limitations in current methods are identified, and novel approaches to improve generalization capabilities are introduced. Notably, work on weight averaging in MORL presents a straightforward method for optimizing multiple objectives, showing promise for future exploration.The core contribution lies in developing a "Subspace of Policies" framework. This novel approach advocates for maintaining a dynamic landscape of solutions within a smaller parametric space, taking profit of neural network weight averaging. Functional diversity is achieved with minimal computational overhead through weight interpolation between neural network parameters. This methodology is explored through various experiments and settings, including few-shot adaptation and continual reinforcement learning, demonstrating its efficacy and potential for scalability and adaptability in complex RL tasks.The conclusion reflects on the research journey, emphasizing the implications of the "Subspaces of Policies" framework for future AI research. Several future directions are outlined, including enhancing the scalability of subspace methods, exploring their potential in decentralized settings, and addressing challenges in efficiency and interpretability. This foundational contribution to the field of RL paves the way for innovative solutions to long-standing challenges in adaptability and generalization, marking a significant step forward in the development of autonomous agents capable of navigating a wide array of tasks seamlessly
APA, Harvard, Vancouver, ISO, and other styles
13

Besedin, Andrey. "Continual forgetting-free deep learning from high-dimensional data streams." Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1263.

Full text
Abstract:
Dans cette thèse, nous proposons une nouvelle approche de l’apprentissage profond pour la classification des flux de données de grande dimension. Au cours des dernières années, les réseaux de neurones sont devenus la référence dans diverses applications d’apprentissage automatique. Cependant, la plupart des méthodes basées sur les réseaux de neurones sont conçues pour résoudre des problèmes d’apprentissage statique. Effectuer un apprentissage profond en ligne est une tâche difficile. La principale difficulté est que les classificateurs basés sur les réseaux de neurones reposent généralement sur l’hypothèse que la séquence des lots de données utilisées pendant l’entraînement est stationnaire ; ou en d’autres termes, que la distribution des classes de données est la même pour tous les lots (hypothèse i.i.d.). Lorsque cette hypothèse ne tient pas les réseaux de neurones ont tendance à oublier les concepts temporairement indisponibles dans le flux. Dans la littérature scientifique, ce phénomène est généralement appelé oubli catastrophique. Les approches que nous proposons ont comme objectif de garantir la nature i.i.d. de chaque lot qui provient du flux et de compenser l’absence de données historiques. Pour ce faire, nous entrainons des modèles génératifs et pseudo-génératifs capable de produire des échantillons synthétiques à partir des classes absentes ou mal représentées dans le flux, et complètent les lots du flux avec ces échantillons. Nous testons nos approches dans un scénario d’apprentissage incrémental et dans un type spécifique de l’apprentissage continu. Nos approches effectuent une classification sur des flux de données dynamiques avec une précision proche des résultats obtenus dans la configuration de classification statique où toutes les données sont disponibles pour la durée de l’apprentissage. En outre, nous démontrons la capacité de nos méthodes à s’adapter à des classes de données invisibles et à de nouvelles instances de catégories de données déjà connues, tout en évitant d’oublier les connaissances précédemment acquises
In this thesis, we propose a new deep-learning-based approach for online classification on streams of high-dimensional data. In recent years, Neural Networks (NN) have become the primary building block of state-of-the-art methods in various machine learning problems. Most of these methods, however, are designed to solve the static learning problem, when all data are available at once at training time. Performing Online Deep Learning is exceptionally challenging.The main difficulty is that NN-based classifiers usually rely on the assumption that the sequence of data batches used during training is stationary, or in other words, that the distribution of data classes is the same for all batches (i.i.d. assumption).When this assumption does not hold Neural Networks tend to forget the concepts that are temporarily not available in thestream. In the literature, this phenomenon is known as catastrophic forgetting. The approaches we propose in this thesis aim to guarantee the i.i.d. nature of each batch that comes from the stream and compensates for the lack of historical data. To do this, we train generative models and pseudo-generative models capable of producing synthetic samples from classes that are absent or misrepresented in the stream and complete the stream’s batches with these samples. We test our approaches in an incremental learning scenario and a specific type of continuous learning. Our approaches perform classification on dynamic data streams with the accuracy close to the results obtained in the static classification configuration where all data are available for the duration of the learning. Besides, we demonstrate the ability of our methods to adapt to invisible data classes and new instances of already known data categories, while avoiding forgetting the previously acquired knowledge
APA, Harvard, Vancouver, ISO, and other styles
14

Mazac, Sébastien. "Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10147/document.

Full text
Abstract:
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus
The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach
APA, Harvard, Vancouver, ISO, and other styles
15

Aissani, Nassima. "Pilotage adaptatif et réactif pour un système de production à flux continu : application à un système de production pétrochimique." Phd thesis, Valenciennes, 2010. http://tel.archives-ouvertes.fr/tel-00553512.

Full text
Abstract:
Les marchés actuels sont caractérisés par une grande compétitivité. Cette compétitivité a mis les entreprises, notamment celles d'envergure internationale, dans une situation de recherche de compromis entre des objectifs et des contraintes de plus en plus forts et contradictoires. Cet environnement nous a conduit à développer un système de pilotage et de contrôle de production qui ne soit pas seulement capable de réagir efficacement mais qui soit également en évolution permanente pour améliorer ses performances et la qualité des solutions qu'il propose en terme d'ordonnancement. Ce système doit pouvoir exploiter au mieux les ressources de production. Pour ce faire, ces ressources subissent régulièrement des entretiens préventifs ou des corrections suite aux pannes, ce qui les rend indisponibles à ces moments. Les systèmes de pilotage de production doivent prendre en considération ces indisponibilités afin de mieux contrôler et commander le système de production. Par conséquent, production et maintenance doivent être gérées conjointement au sein du système de pilotage. Dans ce cadre, l'objectif de cette thèse est de proposer un système de pilotage qui soit réactif et capable d'améliorer en permanence ses performances. Dans cet objectif, un système basé sur l'approche multi-agent et l'apprentissage par renforcement multi-objectifs a été développé, ces techniques permettent au système d'être réactif et adaptatif à son environnement. Le système développé a été testé sur un cas réel qui est une unité de fabrication des huiles finies. Les expérimentations ont donné des résultats satisfaisants ouvrant la porte à de nouvelles perspectives.
APA, Harvard, Vancouver, ISO, and other styles
16

Hocquet, Guillaume. "Class Incremental Continual Learning in Deep Neural Networks." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPAST070.

Full text
Abstract:
Nous nous intéressons au problème de l'apprentissage continu de réseaux de neurones artificiels dans le cas où les données ne sont accessibles que pour une seule catégorie à la fois. Pour remédier au problème de l'oubli catastrophique qui limite les performances d'apprentissage dans ces conditions, nous proposons une approche basée sur la représentation des données d'une catégorie par une loi normale. Les transformations associées à ces représentations sont effectuées à l'aide de réseaux inversibles, qui peuvent alors être entraînés avec les données d'une seule catégorie. Chaque catégorie se voit attribuer un réseau pour représenter ses caractéristiques. Prédire la catégorie revient alors à identifier le réseau le plus représentatif. L'avantage d'une telle approche est qu'une fois qu'un réseau est entraîné, il n'est plus nécessaire de le mettre à jour par la suite, chaque réseau étant indépendant des autres. C'est cette propriété particulièrement avantageuse qui démarque notre méthode des précédents travaux dans ce domaine. Nous appuyons notre démonstration sur des expériences réalisées sur divers jeux de données et montrons que notre approche fonctionne favorablement comparé à l'état de l'art. Dans un second temps, nous proposons d'optimiser notre approche en réduisant son impact en mémoire en factorisant les paramètres des réseaux. Il est alors possible de réduire significativement le coût de stockage de ces réseaux avec une perte de performances limitée. Enfin, nous étudions également des stratégies pour produire des réseaux capables d'être réutilisés sur le long terme et nous montrons leur pertinence par rapport aux réseaux traditionnellement utilisés pour l'apprentissage continu
We are interested in the problem of continual learning of artificial neural networks in the case where the data are available for only one class at a time. To address the problem of catastrophic forgetting that restrain the learning performances in these conditions, we propose an approach based on the representation of the data of a class by a normal distribution. The transformations associated with these representations are performed using invertible neural networks, which can be trained with the data of a single class. Each class is assigned a network that will model its features. In this setting, predicting the class of a sample corresponds to identifying the network that best fit the sample. The advantage of such an approach is that once a network is trained, it is no longer necessary to update it later, as each network is independent of the others. It is this particularly advantageous property that sets our method apart from previous work in this area. We support our demonstration with experiments performed on various datasets and show that our approach performs favorably compared to the state of the art. Subsequently, we propose to optimize our approach by reducing its impact on memory by factoring the network parameters. It is then possible to significantly reduce the storage cost of these networks with a limited performance loss. Finally, we also study strategies to produce efficient feature extractor models for continual learning and we show their relevance compared to the networks traditionally used for continual learning
APA, Harvard, Vancouver, ISO, and other styles
17

Izard, Amélie. "La lecture du CP au CM2 avec le test de l'alouette : que peut-on dire du niveau des élèves à quarante ans de distance ? : comment se déroule cet apprentissage (continu/discontinu) ?" Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-00961020.

Full text
Abstract:
Dans un contexte idéologique où la question de la baisse du niveau revient de façon récurrente dans l'espace public, nous nous sommes servie du test de L'alouette (Lefavrais, 1967) pour mener une étude comparative du niveau en lecture des élèves du CP au CM2. Les résultats indiquent qu'à quarante ans d'écart, le niveau en lecture a diminué de six mois. Au-delà de cette baisse relative, apparaît un fait tout aussi intéressant : celui d'un accroissement des écarts. On constate alors un décrochage des élèves les plus en difficulté et un décollage des élèves les plus performants. Le test de L'alouette étant basé sur une conception traditionnelle de la lecture, nous y avons vu là, l'occasion de mettre à l'épreuve les modèles dominants en lecture : les modèles développementaux. De cette façon, nous nous sommes demandée dans quelle mesure le test de L'alouette nous informe quant à l'apprentissage de la lecture et plus particulièrement en ce qui concerne le caractère discontinu ou continu de la lecture. Les résultats obtenus semblent aller dans le sens d'une discontinuité certes, mais qui ne serait pas absolue. Ainsi, dès le début de l'apprentissage les élèves utiliseraient une procédure lexicale en plus de la procédure par médiation phonologique. L'une ou l'autre étant dominante à certains moments de l'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
18

Morette, Nathalie. "Mesure et analyse par apprentissage artificiel des décharges partielles sous haute tension continue pour la reconnaissance de l'état de dégradation des isolants électriques." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS006.

Full text
Abstract:
Le phénomène de décharges partielles (DP) est considéré comme l'une des principales causes de dégradation des matériaux isolants utilisés dans l’appareillage haute tension. La mesure de DP constitue un outil d’évaluation efficace pour le contrôle et le diagnostic des systèmes d’isolation électriques. Dans la perspective de stimuler le développement des énergies renouvelables, le transport de l’énergie électrique sous courant continu est économiquement avantageux. Cependant, la relation entre les caractéristiques des décharges partielles et l'état de dégradation de l'isolation des câbles sous haute tension continue (HVDC) n'est à ce jour, pas clairement établie. Dans cette thèse, une méthodologie a été développée pour la reconnaissance de l’état de dégradation des matériaux isolants à partir de la mesure de DP sous tension continue. Plusieurs dispositifs expérimentaux ont été conçus pour la mesure de DP au sein de différents types de câbles sous HVDC. Afin de collecter des signaux utiles au diagnostic des systèmes d’isolation, les signaux parasites doivent être éliminés. La discrimination des signaux de décharges partielles des signaux de bruit a été effectuée au sein de systèmes d’isolation électriques variés, à travers l’implémentation de méthodes d’apprentissage artificiel. Une fois les bases de données exemptes de signaux parasites, des techniques d’extraction, de classement et de sélection de variables, combinées à l’utilisation de méthodes de classification, ont été mises en œuvre pour la reconnaissance de l'état de dégradation des systèmes d'isolation électrique sous DC. Des scores de reconnaissance proches de 100% ont été obtenus
Partial discharges (PD) are one of the key drivers of degradation and ageing of insulating materials used in high-voltage switchgear. Consequently, partial discharges measurement has become an essential assessment tool for the monitoring of insulation systems. Given the continuing growth of renewable energy, the transport under direct current (DC) is economically advantageous. However, the relationship between partial discharges characteristics and the degradation of cables insulation under high voltage direct current (HVDC) remains unclear. In this work, a methodology is proposed for ageing state recognition of electrical insulation systems based on PD measurements under DC. For this purpose, original measuring devices have been developed and PD measurements were performed within different cable types under HVDC. In order to ensure a reliable monitoring and diagnosis of the insulation, noise signals must be eliminated. This thesis tackles the problem of the discrimination of partial discharge and noise signals acquired in different environments by applying machine learning methods. The techniques developed are a promising tool to improve the diagnosis of HV equipment under HVDC, where the need to discard automatically noise signals with high accuracy is of great importance. Once disturbances were eliminated from the databases, ageing state recognition was performed on different cable types. The feature extraction, ranking and selection methods, combined with classification techniques allowed to obtain recognition rates up to 100%
APA, Harvard, Vancouver, ISO, and other styles
19

Cottier, Jean-Bernard. "Soigner son travail pour prendre soin des autres : l’expérience d’un espace de parole entre soignants : une occasion de professionnalisation du rôle relationnel ?" Thesis, Nantes, 2019. http://www.theses.fr/2019NANT2037.

Full text
Abstract:
Cette recherche est issue d’une expérience qui s’est déroulée sur une période de cinq ans (2003-2008) dans un service de gastro-entérologie. L’auteur de cette thèse a éprouvé le besoin de solliciter quelques soignants ayant volontairement participé à un groupe de réflexion qui les réunissait régulièrement dans leur service ; ces instants leur permettaient d’évoquer leurs difficultés, leurs interrogations, leurs doutes, voire leurs souffrances. Bien des années plus tard, l’infirmier-doctorant qui a participé activement à cette initiative a voulu comprendre pourquoi cette expérience avait mobilisé certains soignants. Il importait de les rencontrer dix ans plus tard pour identifier avec le recul les bénéfices qu’ils avaient éventuellement retirés de ces temps d’éducation informelle. A la faveur des récits recueillis, une thèse s’est progressivement imposée : pour prendre soin des autres, le soignant n’a d’autres recours que de se raconter, entouré par ses pairs. C’est la figure du sujet apprenant qui émerge à travers ces récits d’apprentissage réalisés au sein d’un groupe. En faisant ces choix, ces professionnels accèdent aux quatre dimensions qui caractérisent le sujet : il est capable, sensible, situé socialement et en mesure de conduire une réflexion. C’est à la faveur de l’émergence de cette figure énigmatique d’un sujet apprenant au sein de ce groupe de réflexion que ces soignants construisent un rapport critique au savoir, se remettent en question et participent ainsi à un processus de développement professionnel et personnel tant pour eux-mêmes que pour les autres
This research is based on a five-year experience (2003-2008) in a gastroenterology department. The author of this thesis has felt the need to request some caregivers having voluntarily participated in a think tank which gathered them regularly in the department; these moments allowed them to express their hardships, their questioning, their doubts, even their suffering. Many years later, the nurse and PhD student who actively participated wanted to know why this experience had motivated some of the caregivers. It was important to meet them ten years later to identify with hindsight the benefits which they had possibly gained from these educational informal times. Thanks to the collected narratives, a hypothesis became obvious: to take care of others, the caregivers has no recourse but to talk, surrounded by his peers. This is the position of the learner which emerges through these learning narratives realized into group practice. By making their choice, these learners have access to four dimensions that characterize the subject : he is capable, sensitive, socially situated and able to lead a reflexion. By the emergence of this enigmatic learning subject within think tank, these caregivers make a criticism of their own knowledge, question themselves and so participate in a process of professional and personal self-growth both for themselves and others
APA, Harvard, Vancouver, ISO, and other styles
20

Cámara, Chávez Guillermo. "Analyse du contenu vidéo par apprentissage actif." Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0380.

Full text
Abstract:
L’objet de cette thèse est de proposer un système d’indexation semi-automatique et de recherche interactive pour la vidéo. Nous avons développé un algorithme de détection des plans automatique sans paramètre, ni seuil. Nous avons choisi un classifieur SVM pour sa capacité à traiter des caractéristiques de grandes dimensions tout en préservant des garanties de généralisation pour peu d’exemples d’apprentissage. Nous avons étudié plusieurs combinaisons de caractéristiques et de fonctions noyaux et présenté des résultats intéressants pour la tâche de détection de plan de TRECVID 2006. Nous avons proposé un système interactif de recherche de contenu vidéo : RETINVID, qui permet de réduire le nombre d’images à annoter par l’utilisateur. Ces images sont sélectionnées pour leur capacité à accroître la connaissance sur les données. Nous avons effectué de nombreuses simulations sur les données de la tâche de concepts haut-niveaux de TRECVID 2005
This thesis presents work towards a unified framework for semi-automated video indexing and interactive retrieval. To create an efficient index, a set of representative key frames are selected from the entire video content. We developed an automatic shot boundary detection algorithm to get rid of parameters and thresholds. We adopted a SVM classifier due to its ability to use very high dimensional feature spaces while at the same time keeping strong generalization guarantees from few training examples. We deeply evaluated the combination of features and kernels and present interesting results obtained, for shot extraction TRECVID 2006 Task. We then propose an interactive video retrieval system: RETINVID, to significantly reduce the number of key frames annotated by the user. The key frames are selected based on their ability to increase the knowledge of the data. We perform an experiment against the 2005 TRECVID benchmark for high-level task
APA, Harvard, Vancouver, ISO, and other styles
21

Yang, Rui. "Online continual learning for 3D detection of road participants in autonomous driving." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA021.

Full text
Abstract:
La conduite autonome a connu des progrès remarquables au cours des dernières décennies, et la perception machine se présente comme un enjeu fondamental crucial, englobant la détection et le suivi des participants à la circulation tels que les véhicules, les piétons et les cyclistes. Bien que la détection d'objets basée sur la vision ait réalisé des progrès significatifs grâce aux techniques d'apprentissage profond, des défis subsistent dans la détection en 3D.Tout d'abord, les capteurs non visuels, tels que le LiDAR 3D, démontrent des avantages inégalés en matière de détection précise et d'adaptabilité aux conditions d'éclairage variables. Cependant, la complexité liée à la manipulation des données de nuages de points, qui peuvent être difficiles à interpréter, associée au coût élevé de l'annotation manuelle, posent des défis majeurs dans l'utilisation du LiDAR 3D.Deuxièmement, des préoccupations découlent du manque d'interprétabilité des modèles d'apprentissage profond, associée à leur forte dépendance à des données d'entraînement étendues, ce qui nécessite souvent une rétroaction coûteuse pour obtenir une performance acceptable lors de l'adaptation à de nouveaux environnements.Cette thèse aborde ces défis selon trois principaux axes : Génération d'échantillons, Préservation des connaissances et Évitement de l'oubli catastrophique. Nous introduisons le concept d'Apprentissage Continu en Ligne et proposons un cadre général. Ce cadre permet aux modèles de se mettre à jour en temps réel, préservant les connaissances plutôt que les données brutes, et atténuant efficacement la dégradation des performances causée par l'oubli.Les principaux travaux de cette thèse comprennent les trois contributions suivance : 1) Génération d'échantillons : Pour résoudre le problème des nuages de points clairsemés générés par un LiDAR 3D et de l'annotation manuelle laborieuse, nous tirons parti des avantages des données multi-capteurs et utilisons un cadre efficace d'apprentissage en ligne par transfert. Ce cadre transfère efficacement les capacités matures de détection basée sur des images aux détecteurs basés sur le LiDAR 3D. Un aspect innovant est le processus d'apprentissage par utilisation, réalisé grâce à la détection en boucle fermée. Une nouvelle stratégie de fusion d'informations est proposée pour combiner les corrélations spatio-temporelles, améliorant l'efficacité du transfert de connaissances. 2) Préservation des connaissances : L'Apprentissage en Ligne est introduit pour assurer la préservation des connaissances sans conserver les données d'entraînement. Un modèle amélioré de Forêt Aléatoire (Random Forest) en Ligne est intégré, permettant un entrainement rapide du modèle avec des ressources informatiques limitées et un déploiement immédiat. Les paramètres du modèle Forêt Aléatoire en Ligne sont partagés dynamiquement tout au long du processus d’entrainement pour répondre à la distribution inconnue des données. L'exploration des structures d'arbres Forêt Aléatoire en Ligne garantit l'indépendance du processus d’entrainement, renforçant la capacité du modèle à capturer des schémas et des variations complexes. 3) Évitement de l'oubli catastrophique : Pour faire face au problème inévitable de l'oubli dans le cadre d'apprentissage en ligne lors d'un déploiement à long terme, nous proposons le cadre de l'Apprentissage en Ligne à Long-court Terme (ALLCT). L'ALLCT combine de multiples apprenants à court terme basés sur l'apprentissage en ensemble avec un contrôleur à long terme doté d'un mécanisme de décision probabiliste. Ce cadre assure une maintenance efficace des connaissances et s'adapte aux changements lors d'un déploiement à long terme, sans faire d'hypothèses sur les types de modèles et la continuité des données. Les évaluations croisées de jeux de données sur des tâches telles que la détection 3D de participants à la circulation routière démontrent l'efficacité de l'ALLCT dans l'évitement de l'oubli
Autonomous driving has witnessed remarkable progress over the past decades, and machine perception stands as a critical foundational issue, encompassing the detection and tracking of road participants such as vehicles, pedestrians, and cyclists. While vision-based object detection has achieved significant progress thanks to deep learning techniques, challenges still exist in 3D detection.Firstly, non-visual sensors, such as 3D LiDAR, demonstrate unparalleled advantages in achieving precise detection and adaptability to varying lighting conditions. However, the complexity of handling points cloud data, which can be challenging to interpret, coupled with the high cost of manual annotation, pose primary challenges in the use of 3D LiDAR.Secondly, concerns arise from the lack of interpretability in deep learning models, coupled with their heavy reliance on extensive training data, which often necessitates costly retraining for acceptable generalization performance when adapting to new scenes or environments.This dissertation addresses these challenges from three main perspectives: Generation of Samples, Preservation of Knowledge, and Avoidance of Catastrophic Forgetting. We introduce the concept of Online Continual Learning (OCL) and propose a general framework that encompasses detection, tracking, learning, and control. This framework enables models to update in real-time, preserving knowledge rather than raw data, and effectively mitigating the performance degradation caused by catastrophic forgetting.The main work of this dissertation includes: 1) Generation of Samples: To address sparse point clouds generated by 3D LiDAR and the labor-intensive manual annotation, we leverage the advantages of multi-sensor data and employ an efficient online transfer learning framework. This framework effectively transfers mature image-based detection capabilities to 3D LiDAR-based detectors. An innovative aspect is the "learn-by-use" process, achieved through closed-loop detection, facilitating continuous self-supervised learning. A novel information fusion strategy is proposed to combine spatio-temporal correlations, enhancing the effectiveness of knowledge transfer. 2) Preservation of Knowledge: Online Learning (OL) is introduced to address knowledge preservation without retaining training data. An improved Online Random Forest (ORF) model is incorporated, enabling rapid model training with limited computational resources and immediate deployment. The ORF model's parameters are dynamically shared throughout the training process to address the unknown data distribution. The exploration of ORF tree structures ensures independence in training processes, enhancing the model's ability to capture complex patterns and variations. Implementing octrees improves storage efficiency and model access. 3) Avoidance of Catastrophic Forgetting: To tackle the inevitable forgetting problem in online learning frameworks during long-term deployment, we propose the Long Short-Term Online Learning (LSTOL) framework. LSTOL combines multiple short-term learners based on ensemble learning with a long-term controller featuring a probabilistic decision mechanism. This framework ensures effective knowledge maintenance and adapts to changes during long-term deployment, without making assumptions about model types and data continuity. Cross-dataset evaluations on tasks such as 3D detection of road participants demonstrate the effectiveness of LSTOL in avoiding forgetting
APA, Harvard, Vancouver, ISO, and other styles
22

Risser-Maroix, Olivier. "Similarité visuelle et apprentissage de représentations." Electronic Thesis or Diss., Université Paris Cité, 2022. http://www.theses.fr/2022UNIP7327.

Full text
Abstract:
L’objectif de cette thèse CIFRE est de développer un moteur de recherche par image, basé sur la vision par ordinateur, afin d’assister les officiers des douanes. En effet, nous constatons, paradoxalement, une augmentation des menaces sécuritaires (terrorisme, trafic, etc.) couplée d’une diminution des effectifs en Douane. Les images de cargos acquises par des scanners à rayons X permettent déjà l’inspection d’un chargement sans nécessiter l’ouverture et la fouille complète d’un chargement contrôlé. En proposant automatiquement des images similaires, un tel moteur de recherche permettrait d’aider le douanier dans sa prise de décision face à des signatures visuelles de produits peu fréquents ou suspects. Grâce à l’essor des techniques modernes en intelligence artificielle (IA), notre époque subit de grands changements : l’IA transforme tous les secteurs de l’économie. Certains voient dans cet avènement de la "robotisation" la déshumanisation de la force de travail, voire son remplacement. Cependant, réduire l’utilisation de l’IA à la simple recherche de gains de productivité serait réducteur. En réalité, l’IA pourrait permettre d’augmenter la capacité de travail des humains et non à les concurrencer en vue de les remplacer. C’est dans ce contexte, la naissance de l’Intelligence Augmentée, que s’inscrit cette thèse. Ce manuscrit consacré à la question de la similarité visuelle se décompose en deux parties. Deux cas pratiques où la collaboration entre l’Homme et l’IA est bénéfique sont ainsi proposés. Dans la première partie, le problème de l’apprentissage de représentations pour la recherche d’images similaires fait encore l’objet d’investigations approfondies. Après avoir implémenté un premier système semblable à ceux proposés par l’état de l’art, l’une des principales limitations est pointée du doigt : le biais sémantique. En effet, les principales méthodes contemporaines utilisent des jeux de données d’images couplées de labels sémantiques uniquement. Les travaux de la littérature considèrent que deux images sont similaires si elles partagent le même label. Cette vision de la notion de similarité, pourtant fondamentale en IA, est réductrice. Elle sera donc remise en question à la lumière des travaux en psychologie cognitive afin de proposer une amélioration : la prise en compte de la similarité visuelle. Cette nouvelle définition permet une meilleure synergie entre le douanier et la machine. Ces travaux font l’objet de publications scientifiques et d’un brevet. Dans la seconde partie, après avoir identifié les composants clefs permettant d’améliorer les performances du système précédemment proposé, une approche mêlant recherche empirique et théorique est proposée. Ce second cas, l’intelligence augmentée est inspirée des développements récents en mathématiques et physique. D’abord appliquée à la com- préhension d’un hyperparamètre important (la température), puis à une tâche plus large (la classification), la méthode proposée permet de fournir une intuition sur l’importance et le rôle de facteurs corrélés à la variable étudiée (ex. hyperparamètre, score, etc.). La chaîne de traitement ainsi mise en place a démontré son efficacité en fournissant une solution hautement explicable et en adéquation avec des décennies de recherches en apprentissage automatique. Ces découvertes permettront l’amélioration des solutions précédemment développées
The objective of this CIFRE thesis is to develop an image search engine, based on computer vision, to assist customs officers. Indeed, we observe, paradoxically, an increase in security threats (terrorism, trafficking, etc.) coupled with a decrease in the number of customs officers. The images of cargoes acquired by X-ray scanners already allow the inspection of a load without requiring the opening and complete search of a controlled load. By automatically proposing similar images, such a search engine would help the customs officer in his decision making when faced with infrequent or suspicious visual signatures of products. Thanks to the development of modern artificial intelligence (AI) techniques, our era is undergoing great changes: AI is transforming all sectors of the economy. Some see this advent of "robotization" as the dehumanization of the workforce, or even its replacement. However, reducing the use of AI to the simple search for productivity gains would be reductive. In reality, AI could allow to increase the work capacity of humans and not to compete with them in order to replace them. It is in this context, the birth of Augmented Intelligence, that this thesis takes place. This manuscript devoted to the question of visual similarity is divided into two parts. Two practical cases where the collaboration between Man and AI is beneficial are proposed. In the first part, the problem of learning representations for the retrieval of similar images is still under investigation. After implementing a first system similar to those proposed by the state of the art, one of the main limitations is pointed out: the semantic bias. Indeed, the main contemporary methods use image datasets coupled with semantic labels only. The literature considers that two images are similar if they share the same label. This vision of the notion of similarity, however fundamental in AI, is reductive. It will therefore be questioned in the light of work in cognitive psychology in order to propose an improvement: the taking into account of visual similarity. This new definition allows a better synergy between the customs officer and the machine. This work is the subject of scientific publications and a patent. In the second part, after having identified the key components allowing to improve the performances of thepreviously proposed system, an approach mixing empirical and theoretical research is proposed. This secondcase, augmented intelligence, is inspired by recent developments in mathematics and physics. First applied tothe understanding of an important hyperparameter (temperature), then to a larger task (classification), theproposed method provides an intuition on the importance and role of factors correlated to the studied variable(e.g. hyperparameter, score, etc.). The processing chain thus set up has demonstrated its efficiency byproviding a highly explainable solution in line with decades of research in machine learning. These findings willallow the improvement of previously developed solutions
APA, Harvard, Vancouver, ISO, and other styles
23

Cámara, Chávez Guillermo Philipp-Foliguet Sylvie. "Analyse du contenu vidéo par apprentissage actif." [s.l.] : [s.n.], 2009. http://biblioweb.u-cergy.fr/theses/07CERG0380.pdf.

Full text
Abstract:
Reproduction de : Thèse doctorat : Traitement de l'image et du signal : Université de Cergy-Pontoise : 2007. Reproduction de : Thèse doctorat : Traitement de l'image et du signal : Universidade Federal de Minas Gerais (Brésil) : 2007.
Thèse soutenue en co-tutelle. Titre provenant de l'écran titre. Bibliogr. p. 157-174.
APA, Harvard, Vancouver, ISO, and other styles
24

Legha, Daniel. "Predictive maintenance and remote diagnosis for electro-mechanical drives of Very High Speed Trains." Electronic Thesis or Diss., La Rochelle, 2023. http://www.theses.fr/2023LAROS015.

Full text
Abstract:
L'objectif principal de cette recherche est de mettre en œuvre des méthodes de diagnostic prédictif et à distance pour les systèmes d'accessibilité du train, qui sont entraînés par des moteurs à courant continu. Ces systèmes sont les suivants : Les portes intérieures, le gap filler, la porte d'accès des passagers et l'ascenseur. La recherche aborde de multiples équations de maintenance prédictive et de télédiagnostic, telles que : Test de la tension de la courroie, pour tous les types de portes intérieures. Le bon état de la butée d'ouverture de la porte, pour tous les types de portes intérieures. Signature du bon fonctionnement des portes intérieures, à l'aide des signaux enregistrés dans le Big Data, tels que le courant et la tension du moteur, la position de la porte, la vitesse, les capteurs de position, la durée des cycles et d'autres informations contextuelles enregistrées sur le sous-système. Signature du bon fonctionnement du Gap Filler, qui a les mêmes objectifs que la signature du bon fonctionnement des portes intérieures. En ce qui concerne l'aspect théorique, la recherche vise à identifier un ensemble de modes de défaillance sélectionnés sur la base des signaux suivants : Courant du moteur, tension du moteur, position du moteur, vitesse du moteur, capteurs de position et données contextuelles telles que la température, l'inclinaison... La recherche vise à étudier les signaux en régime transitoire et non transitoire, avec et sans capteurs de position dans certains cas, avec une ingénierie des caractéristiques basée sur le domaine temporel, le domaine fréquentiel et le temps-fréquence. En outre, la recherche aborde les techniques d'apprentissage automatique pour la classification des données et des défaillances. L'objectif principal est de travailler sur des techniques basées sur le signal, et si possible, des recherches supplémentaires seront effectuées en utilisant des techniques basées sur le modèle
The main objective of this research is to implement predictive and remote diagnosis solutions for the train’s accessibility systems, which are driven by direct current motors. And these systems are the Internal Doors, the Gap Filler, the Passengers’ Access Door, and the Lift. The research tackles multiple predictive maintenance and remote diagnosis equations, such as: Test of the belt tension, for all the types of Internal Doors. The good condition of the door open stopper, for all types of Internal Doors. Signature of proper operation of Internal Doors, using the Big Data recorded signals such as the motor current, motor voltage, door position, speed, position sensors, cycles’ timings, and other contextual information recorded on the subsystem. Signature of proper operation of Gap Filler, which has the same objectives as the signature of proper operation of Internal Doors...Regarding the academic side, the research aims to identify a set of selected failure modes based on the following signals: Motor current, Motor Voltage, Motor position, Motor speed, Position sensors, and contextual data such as the temperature, the cant/tilt... The research aims to study the signals intransient and non-transient regimes, with and without position sensors in some cases, with features engineering based on the time domain, the frequency domain, and time-frequency. Furthermore, the research tackles Machine Learning techniques for data/failure classification. The main objective is to work on signal-based techniques, and if possible, additional investigation will be done using model-based techniques
APA, Harvard, Vancouver, ISO, and other styles
25

Do, Quoc khanh. "Apprentissage discriminant des modèles continus en traduction automatique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS071/document.

Full text
Abstract:
Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses
Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives
APA, Harvard, Vancouver, ISO, and other styles
26

Foulon, Lucas. "Détection d'anomalies dans les flux de données par structure d'indexation et approximation : Application à l'analyse en continu des flux de messages du système d'information de la SNCF." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI082.

Full text
Abstract:
Dans cette thèse, nous proposons des méthodes de calcul approchées d'un score d'anomalie, pouvant être mises en oeuvre sur des flux de données pour détecter des portions anormales. La difficulté du problème est de deux ordres. D'une part, la haute dimensionnalité des objets manipulés pour décrire les séries temporelles extraites d'un flux brut, et d'autre part la nécessité de limiter le coût de détection afin de pouvoir la réaliser en continu au fil du flux. Concernant le premier aspect du problème, notre étude bibliographique a permis de sélectionner un score de détection d'anomalies proposé récemment, le score CFOF, qui est le seul pour lequel il existe des garanties formelles quant à son adéquation pour les données en haute dimensionnalité. Nos contributions ont alors porté sur la proposition de deux méthodes d'approximation du score CFOF pour permettre son usage en continu sur des flux. La première est une approche combinant élagage et approximation lors du parcours des voisinages dans l'espace de description des objets. Notre second apport est une approximation par agrégation de scores obtenus sur des sous-espaces, qui complète la première contribution et se combine avec elle. Nous avons montré sur une collection de jeux de données, utilisés comme cadre d'évaluation de référence dans le domaine, que nos méthodes permettaient des gains importants en temps de calcul, tout en fournissant des approximations qui préservent la qualité des détections. Enfin, nous présentons également l'application de ces approches au sein du système d'information de la SNCF dans lequel de nombreux flux sont collectés en temps réel, transformés et rediffusés. Dans ce contexte, nous avons étendu la supervision de bout-en-bout existante par la mise en oeuvre d'un outil d'aide à la détection d'anomalies sur le flux de messages entrant d'une des principales plateformes de traitement
In this thesis, we propose methods to approximate an anomaly score in order to detect abnormal parts in data streams. Two main problems are considered in this context. Firstly, the handling of the high dimensionality of the objects describing the time series extracted from the raw streams, and secondly, the low computation cost required to perform the analysis on-the-fly. To tackle the curse of dimensionality, we have selected the CFOF anomaly score, that has been proposed recently and proven to be robust to the increase of the dimensionality. Our main contribution is then the proposition of two methods to quickly approximate the CFOF score of new objects in a stream. The first one is based on safe pruning and approximation during the exploration of object neighbourhood. The second one is an approximation obtained by the aggregation of scores computed in several subspaces. Both contributions complete each other and can be combined. We show on a reference benchmark that our proposals result in important reduction of the execution times, while providing approximations that preserve the quality of anomaly detection. Then, we present our application of these approaches within the SNCF information system. In this context, we have extended the existing monitoring modules by a new tool to help to detect abnormal behaviours in the real stream of messages within the SNCF communication system
APA, Harvard, Vancouver, ISO, and other styles
27

Gosselin, Philippe-Henri. "Apprentissage interactif pour la recherche par le contenu dans les bases multimédias." Habilitation à diriger des recherches, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00660316.

Full text
Abstract:
Les bases actuelles de données multimédia nécessitent des outils de plus en plus avancés pour pouvoir être parcourues avec efficacité. Dans ce contexte, la recherche en interaction avec un utilisateur est une approche qui permet de résoudre des requêtes à la sémantique complexe avec rapidité, sans pour autant nécessiter un haut niveau d'expertise utilisateur. Parmi les différents éléments intervenant dans la conception d'un système de recherche interactive, deux parties essentielles interviennent: l'indexation et la similarité entre les documents multimédia, et la gestion du processus interactif. Dans le contexte de la recherche multimédia par le contenu, on s'appuie sur des descriptions visuelles extraites automatiquement des documents. Suite à cette étape initiale, il est nécessaire de produire des structures de données, appelées index, ainsi qu'une métrique capable de comparer ces structures. Pour ce faire, nous proposons de représenter un document sous la forme d'un graphe, où chaque sommet du graphe représente une partie du document (région, point d'intérêt, ...) et chaque arête du graphe représente une relation entre deux parties du document. Puis, nous introduisons des métriques associées, sous la forme de fonctions noyaux sur graphes, qui permettent d'utiliser ces représentations complexes avec les méthodes d'apprentissages Hilbertiennes, telle que les SVMs. La gestion du processus interactif entre le système et un utilisateur a fait d'important progrès grâce à l'approche dite par apprentissage actif. Les premières approches proposent des critères pertinents pour la sélection de document à faire annoter par l'utilisateur, dans le but de trouver les documents recherchés au plus vite. Dans ce contexte, nous proposons d'aller plus loin en nous intéressant à la fabrication "en ligne" d'index et métriques associées en fonction de la nature de la recherche. En d'autres termes, nous proposons de remplacer le schéma traditionnel, où un unique index général est utilisé, par un schéma d'indexation active, où chaque utilisateur dispose d'un index dédié à sa requête.
APA, Harvard, Vancouver, ISO, and other styles
28

Philippeau, Jérémy. "Apprentissage de similarités pour l'aide à l'organisation de contenus audiovisuels." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/564/.

Full text
Abstract:
Dans une optique d'adaptation aux nouveaux usages de consultation d'archives audiovisuelles, nous souhaitons aider un utilisateur issu du grand public à organiser des contenus audiovisuels, c'est-à-dire les classifier, les caractériser, les identifier ou les ordonner. Pour ce faire, nous proposons d'utiliser un vocabulaire autre que ce que l'on pourrait trouver dans une notice documentaire de l'Ina, afin de répondre à des envies qui ne sont pas facilement définissables avec des mots. Nous avons conçu pour cela une interface graphique qui s'appuie sur un formalisme de graphe dédié à l'expression d'une tâche organisationnelle. La similarité numérique est un bon outil au regard des éléments que nous manipulons, à savoir des objets informationnels présentés sur un écran d'ordinateur et des valeurs descriptives de " bas niveau " audio et vidéo extraites de manière automatique. Nous avons choisi de prédire la similarité entre ces éléments grâce à un modèle statistique. Parmi les nombreux modèles existants, la prédiction statistique basée sur la régression univariée et fondée
In the perspective of new usages in the field of the access to audiovisual archives, we have created a semi-automatic system that helps a user to organize audiovisual contents while performing tasks of classification, characterization, identification and ranking. To do so, we propose to use a new vocabulary, different from the one already available in INA documentary notices, to answer needs which can not be easily defined with words. We have conceived a graphical interface based on graph formalism designed to express an organisational task. The digital similarity is a good tool in respect with the handled elements which are informational objects shown on the computer screen and the automatically extracted audio and video low-level features. We have made the choice to estimate the similarity between those elements with a predictive process through a statistical model. Among the numerous existing models, the statistical prediction based on the univaried regression and on support vectors has been chosen. H)
APA, Harvard, Vancouver, ISO, and other styles
29

Vielzeuf, Valentin. "Apprentissage neuronal profond pour l'analyse de contenus multimodaux et temporels." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC229/document.

Full text
Abstract:
Notre perception est par nature multimodale, i.e. fait appel à plusieurs de nos sens. Pour résoudre certaines tâches, il est donc pertinent d’utiliser différentes modalités, telles que le son ou l’image.Cette thèse s’intéresse à cette notion dans le cadre de l’apprentissage neuronal profond. Pour cela, elle cherche à répondre à une problématique en particulier : comment fusionner les différentes modalités au sein d’un réseau de neurones ?Nous proposons tout d’abord d’étudier un problème d’application concret : la reconnaissance automatique des émotions dans des contenus audio-visuels.Cela nous conduit à différentes considérations concernant la modélisation des émotions et plus particulièrement des expressions faciales. Nous proposons ainsi une analyse des représentations de l’expression faciale apprises par un réseau de neurones profonds.De plus, cela permet d’observer que chaque problème multimodal semble nécessiter l’utilisation d’une stratégie de fusion différente.C’est pourquoi nous proposons et validons ensuite deux méthodes pour obtenir automatiquement une architecture neuronale de fusion efficace pour un problème multimodal donné, la première se basant sur un modèle central de fusion et ayant pour visée de conserver une certaine interprétation de la stratégie de fusion adoptée, tandis que la seconde adapte une méthode de recherche d'architecture neuronale au cas de la fusion, explorant un plus grand nombre de stratégies et atteignant ainsi de meilleures performances.Enfin, nous nous intéressons à une vision multimodale du transfert de connaissances. En effet, nous détaillons une méthode non traditionnelle pour effectuer un transfert de connaissances à partir de plusieurs sources, i.e. plusieurs modèles pré-entraînés. Pour cela, une représentation neuronale plus générale est obtenue à partir d’un modèle unique, qui rassemble la connaissance contenue dans les modèles pré-entraînés et conduit à des performances à l'état de l'art sur une variété de tâches d'analyse de visages
Our perception is by nature multimodal, i.e. it appeals to many of our senses. To solve certain tasks, it is therefore relevant to use different modalities, such as sound or image.This thesis focuses on this notion in the context of deep learning. For this, it seeks to answer a particular problem: how to merge the different modalities within a deep neural network?We first propose to study a problem of concrete application: the automatic recognition of emotion in audio-visual contents.This leads us to different considerations concerning the modeling of emotions and more particularly of facial expressions. We thus propose an analysis of representations of facial expression learned by a deep neural network.In addition, we observe that each multimodal problem appears to require the use of a different merge strategy.This is why we propose and validate two methods to automatically obtain an efficient fusion neural architecture for a given multimodal problem, the first one being based on a central fusion network and aimed at preserving an easy interpretation of the adopted fusion strategy. While the second adapts a method of neural architecture search in the case of multimodal fusion, exploring a greater number of strategies and therefore achieving better performance.Finally, we are interested in a multimodal view of knowledge transfer. Indeed, we detail a non-traditional method to transfer knowledge from several sources, i.e. from several pre-trained models. For that, a more general neural representation is obtained from a single model, which brings together the knowledge contained in the pre-trained models and leads to state-of-the-art performances on a variety of facial analysis tasks
APA, Harvard, Vancouver, ISO, and other styles
30

Carrière, Véronique. "Apprentissage médié par les TICE : le cas des étudiants déficients visuels." Phd thesis, Université Paul Valéry - Montpellier III, 2012. http://tel.archives-ouvertes.fr/tel-00718602.

Full text
Abstract:
Cette recherche porte sur les apprentissages médiés par les TICE chez les étudiants déficients visuels. La particularité de ces apprentissages réside dans la nécessité d'utiliser des outils informatiques adaptés afin de pallier le manque de vision. La dernière décennie s'inscrit dans un contexte où le cadre législatif en faveur des personnes en situation de handicap se met en place en parallèle d'une expansion du numérique. Nous prenons appui sur un corpus audio et audiovisuel issu d'expérience d'apprentissage in situ et d'entretiens semi-qualitatifs. Grâce à un système d'analyse pluridisciplinaire (analyse de contenu, analyse du discours, sociocognitivisme) notre étude vise, d'une part, à analyser quels sont les freins humains et techniques subsistant dans l'apprentissage de ces étudiants. D'autre part, nous nous intéressons aux stratégies d'adaptation mises en oeuvre par les étudiants mais aussi par les acteurs de la vie universitaire afin de pallier la déficience visuelle. Enfin, en explorant les différentes modalités sensorielles, nous nous attachons à apporter des pistes de réflexion et des préconisations visant à améliorer les conditions d'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
31

Dutt, Anuvabh. "Continual learning for image classification." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM063.

Full text
Abstract:
Cette thèse traite de l'apprentissage en profondeur appliqu'e aux tâches de classification des images. La principale motivation du travail est de rendre les techniques d’apprentissage en profondeur actuelles plus efficaces et de faire face aux changements dans la distribution des données. Nous travaillons dans le cadre élargi de l’apprentissage continu, dans le but d’avoir 'a l’avenir des modèles d’apprentissage automatique pouvant être améliorés en permanence.Nous examinons d’abord la modification de l’espace étiquette d’un ensemble de données, les échantillons de données restant les mêmes. Nous considérons une hiérarchie d'étiquettes sémantiques à laquelle appartiennent les étiquettes. Nous étudions comment nous pouvons utiliser cette hiérarchie pour obtenir des améliorations dans les modèles formés à différents niveaux de cette hiérarchie.Les deuxième et troisième contributions impliquent un apprentissage continu utilisant un modèle génératif. Nous analysons la facilité d'utilisation des échantillons d'un modèle génératif dans le cas de la formation de bons classificateurs discriminants. Nous proposons des techniques pour améliorer la sélection et la génération d'échantillons à partir d'un modèle génératif. Ensuite, nous observons que les algorithmes d’apprentissage continu subissent certaines pertes de performances lorsqu’ils sont entraînés séquentiellement à plusieurs tâches. Nous analysons la dynamique de la formation dans ce scénario et comparons avec la formation sur plusieurs tâches simultanément. Nous faisons des observations qui indiquent des difficultés potentielles dans l’apprentissage de modèles dans un scénario d’apprentissage continu.Enfin, nous proposons un nouveau modèle de conception pour les réseaux de convolution. Cette architecture permet de former des modèles plus petits sans compromettre les performances. De plus, la conception se prête facilement à la parallélisation, ce qui permet une formation distribuée efficace.En conclusion, nous examinons deux types de scénarios d’apprentissage continu. Nous proposons des méthodes qui conduisent à des améliorations. Notre analyse met 'egalement en évidence des problèmes plus importants, dont nous aurions peut-être besoin de changements dans notre procédure actuelle de formation de réseau neuronal
This thesis deals with deep learning applied to image classification tasks. The primary motivation for the work is to make current deep learning techniques more efficient and to deal with changes in the data distribution. We work in the broad framework of continual learning, with the aim to have in the future machine learning models that can continuously improve.We first look at change in label space of a data set, with the data samples themselves remaining the same. We consider a semantic label hierarchy to which the labels belong. We investigate how we can utilise this hierarchy for obtaining improvements in models which were trained on different levels of this hierarchy.The second and third contribution involve continual learning using a generative model. We analyse the usability of samples from a generative model in the case of training good discriminative classifiers. We propose techniques to improve the selection and generation of samples from a generative model. Following this, we observe that continual learning algorithms do undergo some loss in performance when trained on several tasks sequentially. We analyse the training dynamics in this scenario and compare with training on several tasks simultaneously. We make observations that point to potential difficulties in the learning of models in a continual learning scenario.Finally, we propose a new design template for convolutional networks. This architecture leads to training of smaller models without compromising performance. In addition the design lends itself to easy parallelisation, leading to efficient distributed training.In conclusion, we look at two different types of continual learning scenarios. We propose methods that lead to improvements. Our analysis also points to greater issues, to over come which we might need changes in our current neural network training procedure
APA, Harvard, Vancouver, ISO, and other styles
32

Le, Goff Matthieu. "Techniques d'analyse de contenu appliquées à l'imagerie spatiale." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19243/1/LE_GOFF_Matthieu.pdf.

Full text
Abstract:
Depuis les années 1970, la télédétection a permis d’améliorer l’analyse de la surface de la Terre grâce aux images satellites produites sous format numérique. En comparaison avec les images aéroportées, les images satellites apportent plus d’information car elles ont une couverture spatiale plus importante et une période de revisite courte. L’essor de la télédétection a été accompagné de l’émergence des technologies de traitement qui ont permis aux utilisateurs de la communauté d’analyser les images satellites avec l’aide de chaînes de traitement de plus en plus automatiques. Depuis les années 1970, les différentes missions d’observation de la Terre ont permis d’accumuler une quantité d’information importante dans le temps. Ceci est dû notamment à l’amélioration du temps de revisite des satellites pour une même région, au raffinement de la résolution spatiale et à l’augmentation de la fauchée (couverture spatiale d’une acquisition). La télédétection, autrefois cantonnée à l’étude d’une seule image, s’est progressivement tournée et se tourne de plus en plus vers l’analyse de longues séries d’images multispectrales acquises à différentes dates. Le flux annuel d’images satellite est supposé atteindre plusieurs Péta octets prochainement. La disponibilité d’une si grande quantité de données représente un atout pour développer de chaines de traitement avancées. Les techniques d’apprentissage automatique beaucoup utilisées en télédétection se sont beaucoup améliorées. Les performances de robustesse des approches classiques d’apprentissage automatique étaient souvent limitées par la quantité de données disponibles. Des nouvelles techniques ont été développées pour utiliser efficacement ce nouveau flux important de données. Cependant, la quantité de données et la complexité des algorithmes mis en place nécessitent une grande puissance de calcul pour ces nouvelles chaînes de traitement. En parallèle, la puissance de calcul accessible pour le traitement d’images s’est aussi accrue. Les GPUs («Graphic Processing Unit ») sont de plus en plus utilisés et l’utilisation de cloud public ou privé est de plus en plus répandue. Désormais, pour le traitement d’images, toute la puissance nécessaire pour les chaînes de traitements automatiques est disponible à coût raisonnable. La conception des nouvelles chaînes de traitement doit prendre en compte ce nouveau facteur. En télédétection, l’augmentation du volume de données à exploiter est devenue une problématique due à la contrainte de la puissance de calcul nécessaire pour l’analyse. Les algorithmes de télédétection traditionnels ont été conçus pour des données pouvant être stockées en mémoire interne tout au long des traitements. Cette condition est de moins en moins respectée avec la quantité d’images et leur résolution. Les algorithmes de télédétection traditionnels nécessitent d’être revus et adaptés pour le traitement de données à grande échelle. Ce besoin n’est pas propre à la télédétection et se retrouve dans d’autres secteurs comme le web, la médecine, la reconnaissance vocale,… qui ont déjà résolu une partie de ces problèmes. Une partie des techniques et technologies développées par les autres domaines doivent encore être adaptées pour être appliquée aux images satellites. Cette thèse se focalise sur les algorithmes de télédétection pour le traitement de volumes de données massifs. En particulier, un premier algorithme existant d’apprentissage automatique est étudié et adapté pour une implantation distribuée. L’objectif de l’implantation est le passage à l’échelle c’est-à-dire que l’algorithme puisse traiter une grande quantité de données moyennant une puissance de calcul adapté. Enfin, la deuxième méthodologie proposée est basée sur des algorithmes récents d’apprentissage automatique les réseaux de neurones convolutionnels et propose une méthodologie pour les appliquer à nos cas d’utilisation sur des images satellites.
APA, Harvard, Vancouver, ISO, and other styles
33

Dupont, Pierre. "Utilisation et apprentissage de modeles de langage pour la reconnaissance de la parole continue." Paris, ENST, 1996. http://www.theses.fr/1996ENST0011.

Full text
Abstract:
Le présent travail s'intéresse à la modélisation du langage pour la reconnaissance de la parole continue. Cette modélisation a pour objectif le contrôle du décodage acoustique par une information contraignant les séquences de mots à reconnaitre. Dans la première partie, nous définissons le contexte général d'utilisation d'un modelé de langage. Nous y abordons le cadre probabiliste et les aspects algorithmiques de l'utilisation de modèles de markov caches en reconnaissance de la parole continue. Nous détaillons l'algorithme de viterbi et la stratégie de recherche en faisceau qui lui est associée. La seconde partie de notre travail traite d'un type particulier de modèles de langage, ceux bases sur une grammaire hors-contexte probabiliste ou non. Nous proposons une approche originale pour l'intégration d'un tel modèle dans l'algorithme de viterbi. Elle utilise un développement d'une structure récursive qui définit dynamiquement l'espace de recherche du décodage acoustique. A ce propos, nous montrons l'intérêt d'une mise sous forme normale de greibach de la grammaire hors-contexte. Nous étudions également la complexité théorique d'un algorithme de transformation sous cette forme normale. Les performances de notre approche sont évaluées dans différents systèmes de reconnaissance de la parole en mettant l'accent sur sa complexité pratique. Dans la troisième partie, nous nous intéressons à l'apprentissage automatique de modèles de langage définis par le biais d'une grammaire formelle. En particulier, nous nous concentrons sur l'inférence de grammaires régulières à partir d'échantillons positif et négatif d'un langage. Nous proposons une étude théorique détaillée de l'espace de recherche de ce problème et nous démontrons des propriétés originales permettant de guider la construction d'une solution. Nous introduisons également un nouveau point de vue qui consiste à traiter l'inférence régulière comme un problème d'optimisation combinatoire. Dans ce cadre, nous développons un algorithme d'inférence par optimisation génétique. Ensuite, nous étudions l'inférence régulière sur base d'une présentation séquentielle des données d'apprentissage. A cette fin, une extension incrémentale d'un algorithme connu est proposée. Nous en démontrons la convergence et nous étudions sa complexité théorique. Finalement, nous définissons deux protocoles d'évaluation de méthodes d'inférence et nous comparons les différents algorithmes étudiés.
APA, Harvard, Vancouver, ISO, and other styles
34

Dupont, Pierre. "Utilisation et apprentissage de modèles de langage pour la reconnaissance de la parole continue /." Paris : École nationale supérieure des télécommunications, 1996. http://catalogue.bnf.fr/ark:/12148/cb35827695q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Bélanger, France. "Développement et expérimentation d'un cours en formation continue auprès de conseillers agricoles selon l'approche par problèmes." Sherbrooke : Université de Sherbrooke, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
36

Sun, Rémy. "Content combination strategies for Image Classification." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS272.

Full text
Abstract:
Dans cette thèse, nous nous attaquons au problème de la classification d'images, un problème fondamental pour la vision par ordinateur et le raisonnement visuel en général. Nous nous intéressons aux différentes façons d'augmenter artificiellement la taille du jeu de données. Plus précisément, nous mettons cette technique à profit pour apprendre au algorithmes neuronaux à réconcilier l'information mixée à partir de différents exemples par le biais des augmentation de données mixantes afin de mieux comprendre le problème sous-jacent. Nous proposons d'abord un nouveau type d'augmentation qui aide le modèle à généraliser en incrustant le contenu sémantique d'un exemples dans le contexte non-sémantique d'un autre pour générer des exemples mixtes appartenant à une unique classe. Pour ce faire, nous proposons de nouvelles architectures permettant de générer de tels exemples, et entrainons de meilleures classificateurs dans un contexte semi-supervisé. Dans un second temps, nous montrons que le mixage d'image peut être utilisé comme un schéma de compression d'entrées permettant d'entraîner de multiples sous-réseaux au sein d'un réseau de base. En effet, en formalisant la méthode séminal ``multi-input multi-output'' (MIMO) comme un schéma d'augmentation de données par mixage d'images. Finalement, nous adaptons ces derniers modèles MIMO aux récents modèles Vision Transformer. Nos travaux montrent que ces nouvelles architectures présentent leurs propres uniques incompatibilités avec l'entraînement MIMO, mais qu'elles y sont aussi extrêmement adaptées à d'autres égards
In this thesis, we tackle the question of deep image classification, a fundamental issue for computer vision and visual understanding in general. We look into the common practice of engineering new examples to augment the dataset. We take this as an opportunity to teach neural algorithms to reconcile information mixed from different samples with Mixing Sample Data Augmentation so as to better understand the problem. To this end, we study both how to edit the content in a mixed image, and what the model should predict for the mixed images. We first propose a new type of data augmentation that helps model generalize by embedding the semantic content of samples into the non-semantic context of other samples to generate in-class mixed samples. To this end, we design new neural architectures capable of generating such mixed samples, and then show the resulting mixed inputs help train stronger classifiers in a semi-supervised setting where few labeled samples are available. In a second part, we show input mixing can be used as an input compression method to train multiple subnetworks in a base network from compressed inputs. Indeed, by formalizing the seminal multi-input multi-output (MIMO) framework as a mixing data augmentation and changing the underlying mixing mechanisms, we obtain strong improvements of over standard models and MIMO models. Finally, we adapt this MIMO technique to the emerging Vision Transformer (ViT) models. Our work shows ViTs present unique challenges for MIMO training, but that they are also uniquely suited for it
APA, Harvard, Vancouver, ISO, and other styles
37

Hanna, Dima. "Usages numériques informels des enseignants du primaire et contribution à leur développement professionnel." Thesis, Toulouse 2, 2016. http://www.theses.fr/2016TOU20092.

Full text
Abstract:
Les nouvelles exigences de l’Education Nationale imposent aux enseignants de s’engager dans une démarche individuelle et collective de développement professionnel et ce tout au long de leur carrière. Ce concept est d’ailleurs très présent dans les débats professionnels et scientifiques. Le développement professionnel des enseignants est un processus qui peut se déployer dans la sphère privée par un travail personnel. Ce travail bénéficie depuis une quinzaine d’années de l’émergence du numérique et de ces outils. Le numérique irrigue désormais toutes les sphères professionnelles et le métier de l’enseignant n’y échappe pas. De nouvelles possibilités d’accéder à des ressources numériques ouvrent de nouveaux « espaces de savoir » et de nouvelles modalités d’apprentissage aux enseignants. Ce travail de thèse tente de décrire et de comprendre de quelle manière les usages numériques informels peuvent produire des situations d’apprentissage, de collaboration et de ce fait participer au développement professionnel des enseignants du primaire et plus spécifiquement ceux de la Haute-Garonne. Afin de répondre à cette problématique, une méthode mixte, quantitative et qualitative, a été mobilisée. Les résultats obtenus démontrent une interrelation entre les usages numériques dans la sphère privée des enseignants et les indicateurs liés au processus du développement professionnel. Hors de l’établissement, c’est-à-dire lors des séquences les moins identifiables de son travail, l’enseignant continue d’agir en professionnel : il s’informe, prépare, réfléchit, fabrique, échange sur l’acte d’apprentissage et d’enseignement. Ces procédures numériques que nous décrirons sont des leviers de professionnalisation et de structuration des compétences
Today’s teachers are required by the National Education to get involved in an individual and collective process of professional development throughout their career. This concept is actually very present in professional and scientific debates. Teachers’ professional development is a process that can be extended in the private sphere with personal work. For about fifteen years this work has benefited from the emergence of digital tools. These days digital circulates in all professional spheres and the teaching profession can’t escape it. New opportunities of access to digital resources open up new « spaces of knowledge » and new learning methods for teachers.This thesis work attempts to describe and understand how informal digital uses can bring about learning, collaborating situations and therefore how they can take part in the professional development of primary school teachers, more precisely those in the Haute-Garonne department. A mixed method both quantitative and qualitative has been used in response to this problem.The obtained results show an interrelation between the digital uses in teachers’ private sphere and the indicators related to the process of professional development.Outside the school i.e. during their working time that is most difficult to identify, teachers keep working as professionals : they do research and preparation work, they think, create, exchange about the act of learning and teaching. The digital procedures we will describe are good means to become professional and to structure one’s abilities
APA, Harvard, Vancouver, ISO, and other styles
38

Côté, Louis. "Analyse de contenu de manuels scolaires en lien avec l'enseignement-apprentissage de la notation exponentielle." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6734.

Full text
Abstract:
L’utilisation du manuel scolaire dans l’enseignement-apprentissage des mathématiques semble occuper une place importante, et ce, pour plusieurs raisons dont une perception de fiabilité de ce matériel (Lebrun, 2006). Nous pouvons également souligner que le manuel scolaire ne sert pas uniquement de soutien aux apprentissages des élèves; il serait aussi une source importante de renseignement pour la personne enseignante dans sa préparation et sa planification, au point même qu’il se substituerait parfois aux programmes de formation lors de l’identification des contenus à enseigner (Spallanzani et al., 2001). Ces constats nous invitent à nous intéresser au contenu du manuel scolaire. Plusieurs études portent sur un aspect particulier du manuel de mathématique, comme la nature des problèmes algébriques qu’on y retrouve (Marchand et Bednarz, 1999; Cotnoir, 2010), ou encore l’utilisation des illustrations lors de la résolution de problème arithmétiques (Biron et Chaput, 2001). Tout en étant très pertinents, ces travaux ne donnent pas accès à un portrait complet des dispositifs mis en œuvre pour aborder un contenu mathématique particulier. C’est pourquoi nous avons décidé d'examiner un concept mathématique précis, soit la notation exponentielle qui, par ailleurs, a fait l’objet de peu de recherches (Cangelosi et al., 2013; Mullet et Cheminat, 1995; Pitta-Panzatti et al., 2007; Sastre et Mullet, 1998; Weber, 2002). Dans cette étude, nous voulons répondre à la question générale suivante : quel contenu retrouve-t-on dans les manuels scolaires de mathématiques québécois, de la 5e année du primaire à la 3e année du secondaire, en lien avec l’enseignement-apprentissage de la notation exponentielle? Pour ce faire, nous avons réalisé une analyse de contenu (Landry, 1997) en reprenant certains éléments de l’analyse thématique (Paillé et Mucchielli, 2010). Nous avons élaboré une grille d’analyse et un guide de codification qui nous ont permis d’observer le vocabulaire (Pierce et Fontaine, 2009) et le symbolisme (Bessot et Eberhard, 1982; Biron, 2012; Pimm, 1987, Roegiers, 1998a) employés dans les manuels scolaires en lien avec la notation exponentielle, à travers les définitions, les exercices et les problèmes (Gouvernement du Québec, 1988; Lakatos, 1984; Ouvrier-Buffet, 2006; Vinner, 1976, 1977, 2002; Wilson, 1990) qui y sont présentés. Les principaux résultats de cette étude mettent en évidence des aspects communs entre les collections et les cycles d'enseignement. Notamment, nous observons une concentration assez importante de l’information sur la notation exponentielle, souvent à l’intérieur d’une sous-section d’un même chapitre. Aussi, sur le plan du symbolisme (Pimm, 1987), il y a peu de mention explicite en lien avec la position et la taille relative de l’exposant par rapport à la base dans les définitions, si ce n'est que parfois par l’observation de cette convention dans les exemples. Ces mêmes exemples possèdent souvent des particularités qui peuvent entrainer une confusion dans la compréhension de la notation exponentielle, confusion qui peut être amplifié par une absence complète de contrexemple dans l’ensemble des définitions et des exercices (Wilson, 1990). Il apparait aussi que l’approche privilégiée pour l’appropriation de la notation exponentielle repose essentiellement, pour la grande majorité des collections, sur les exercices qui représentent près de la moitié des items analysés dans l’étude. Soulignons également que les problèmes proposés sont relativement variés quant aux contextes, mais sont presque tous à solution unique et à données complètes (Gouvernement du Québec, 1988). En ce qui a trait aux différences entre les collections et les cycles d'enseignement, notons que les définitions sont plutôt en mots pour l’amorce de l’enseignement-apprentissage de la notation exponentielle au primaire, alors qu’une présence accrue des définitions symboliques et en « mots et symboliques » apparait au secondaire. Aussi, les fonctions de ces exercices changent selon les cycles d’enseignement. Au primaire, ce sont les fonctions d'encodage, de décodage, de déduction d’une valeur manquante et de comparaison d’effet qui dominent. Au 1er cycle du secondaire, ce sont les fonctions de déduction d’une valeur manquante et de conjecture-vérification que nous retrouvons. Finalement, c’est la fonction de réduction qui est la plus présente au 2e cycle du secondaire.
APA, Harvard, Vancouver, ISO, and other styles
39

Marcelli, Agnès. "Temps et apprentissage d'une langue étrangère : vers un modèle bicontextuel d'enseignement - apprentissage, initié en présentiel et continué à distance à l'étranger (approche théorique et mise en oeuvre)." Besançon, 2004. http://www.theses.fr/2004BESA1009.

Full text
Abstract:
Cette recherche s'inscrit dans le cadre d'un projet intitulé FR 2000 (le français en l'an 2000). Elle a pour but la modélisation d'un cours expérimental de Français Langue Etrangère initié en présentiel, au Centre de Linguistique Appliquée de Besançon, et continué à distance, à l'Université de Technologie de Brisbane en Australie, par l'intermédiaire de la plate-forme de téléformation WebCT 3. 2. Nous débutons cette recherche par l'exposition et la définition des principes théoriques et pédagogiques, à travers la pédagogie en contexte, qui régissent notre approche méthodologique et nos choix didactiques. La description de ce cours expérimental de nature hybride ainsi que l'ensemble des données recueillies nous ont permis de dresser les profils des sujets apprenants et d'observer sous l'angle du temps la pertinence et l'influence d'un tel dispositif sur l'enseignement et l'apprentissage d'une langue étrangère
This research lies within teh framework of a project entitled FR 2000 (French in the Year 2000). The goal of this research is the effective modeling of an experimental course in the subject area of french as a foreign Language. The experimental course is initiated in a face-to-face classroom at the Centre de Linguistique Appliquée de Besançon (France) and continues in a distance mode at the Univesity of Technology of Brisbane (Australia) via WebCT 3. 2 online courseware. Our thesis begins by describing the theoretic and pedagogical principles, with a pedagogy in context approach, that govern our methods and didactic choices. The description of this hybrid experimental course as well as its set of collected data allowed us to put together a profile of learners and to observe, from a point of view focusing on time, the pertinence and the influence such a context can play on the teaching and learning of a foreign langage
APA, Harvard, Vancouver, ISO, and other styles
40

Contemori, Giulio. "Amélioration de la fonctionnalité visuelle par l'utilisation concomitante de l'apprentissage perceptif et de la stimulation cérébrale : le cas de la dégénérescence maculaire." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30054.

Full text
Abstract:
La dégénérescence maculaire (DM) est une pathologie visuelle fréquente dans la population vieillissante, qui se caractérise par une perte de la vision centrale, une diminution de la sensibilité au contraste et de l'acuité visuelle. Cette déficience affecte fortement la qualité de vie et l'autonomie . Il n'existe actuellement aucun traitement curatif de la DMLA, les options thérapeutiques disponibles ne permettant que de ralentir l'évolution de la maladie, avec de rares traitements palliatifs. Après l'apparition du scotome central, les patients atteints de DM développent une ou plusieurs zones de fixations excentrées - les lieux rétiniens préférentiels (PRLs) - qui sont utilisées pour la fixation, la lecture, et d'autres tâches visuelles qui nécessitent des capacités oculaires plus fines. L'objectif principal du projet était d'étudier et d'améliorer les capacités visuelles résiduelles dans les PRL. En tout quatre études ont été menées L'étude 1 a été menée chez des patients atteints de DMLA afin de déterminer si, après l'apparition du scotome, le PRL acquiert des capacités accrues dans le traitement de l'information visuelle grâce à une plasticité adaptative spontanée ou dépendante de l'utilisation. L'étude 2 visait à évaluer les effets d'une seule stimulation électrique transcrânienne à bruit aléatoire (tRNS), une variante de stimulation électrique non-invasive, sur l'intégration spatiale dans le cortex visuel sain. L'étude 3 visait à évaluer chez des sujets sains l'effet d'une répétition quotidienne du tRNS associée à un entraînement perceptif entre les séances. L'objectif de l'étude 4 était de traduire ces résultats en une approche clinique en combinant la tRNS et l'entraînement perceptif chez des patients adultes atteints de DMLA. Nous n'avons trouvé aucun phénomène de plasticité corticale spontanée ou dépendante de l'utilisation dans la PRL avant l'entraînement contrairement à ce qui avait été montré dans d'autres études. Nous avons cependant constaté que le tRNS était capable de moduler l'intégration visuospatiale dans le traitement visuel précoce, en favorisant les changements plastiques dans le réseau stimulé. Les effets de la tRNS ne se sont pas limités à la modulation à court terme, mais ont également produit un renforcement de l'apprentissage dans une tâche d'encombrement spatial. L'expérience finale a montré chez les adultes atteints de DMLA qu'une combinaison de la tRNS et de l'apprentissage perceptif pouvait induire des améliorations plus importantes et un transfert accentué vers des tâches visuelles non entrainées que le seul apprentissage perceptif. Dans l'ensemble, nos résultats indiquent que la tRNS du cortex visuel peut être utilisée comme thérapie supplémentaire pour améliorer la vision chez les adultes atteints de cécité centrale bilatérale
Macular degeneration (MD) is a common visual disorder in the aging population characterized by a loss of central vision, reduced visual acuity contrast sensitivity, and increased crowding. This impairment strongly affects the quality of life and personal autonomy. There is currently no cure for AMD, available treatment options are only able to slow down the disease, and even palliative treatments are rare. After the emergence of the central scotoma, patients with MD develop one or more eccentric fixation areas - preferred retinal loci (PRLs) - that are used for fixation, reading, tracking, and other visual tasks that require finer ocular abilities. The final goal of the project was to investigate and to improve the residual visual abilities in the PRL. Four studies were conducted in total. Study 1 was conducted in MD patients to investigate whether after the emergence of the scotoma, the PRL acquire enhanced abilities in the processing of the visual information through spontaneous or use-dependent adaptive plasticity. Study 2 aimed to assess the effects of a single administration of transcranial random noise electrical stimulation (tRNS), a subtype of non-invasive transcranial electrical stimulation, on the spatial integration in the healthy visual cortex. Study 3 aimed to assess the between session effect of daily repeated tRNS coupled with perceptual training. The objective of study 4 was to translate the previous findings into a clinically applicable treatment approach by combining tRNS and perceptual training in adult patients with MD. Contrary to previous results, we found neither a phenomenon of spontaneous nor use-dependent cortical plasticity undergoing in the PRL before the training. We also found that the tRNS was able to modulate the visuospatial integration in the early visual processing, promoting plastic changes in the stimulated network. Its effects were not limited to the short-term modulation but also produced a boosting of the learning in a crowding task. The final experiment showed that a combination of tRNS and perceptual training could result in greater improvements and larger transfer to untrained visual tasks in adults with MD than training alone. Overall, our results indicate that tRNS of the visual cortex has potential application as an additional therapy to improve vision in adults with bilateral central blindness
APA, Harvard, Vancouver, ISO, and other styles
41

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Full text
Abstract:
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images
APA, Harvard, Vancouver, ISO, and other styles
42

Guélorget, Paul. "Active learning for the detection of objects of operational interest in open-source multimedia content." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS018.

Full text
Abstract:
Une profusion de contenus, acteurs et interactions en source ouverte sont ciblées par les analystes à des fins commerciales, politiques ou de renseignement. Analyser l'immensité de ces données requiert une assistance automatisée. Bien que les propositions récentes en matière d'architectures de réseaux de neurones aient montré de fortes capacités envers les modalités image et texte, leur entraînement exploite des jeux de données massifs, inexistant pour la majorité des classes d'intérêt opérationnel. Pour résoudre ce problème, l'apprentissage actif tire parti de la grande quantité de documents non annotés en sollicitant un oracle humain pour obtenir les labels des documents présumés les plus informatifs, afin d'améliorer la précision. Cependant, les justifications derrière les décisions du modèle sont opaques et sans lien avec celles de l'oracle. De plus, à cause de ses longues étapes successives, le déroulement de l'apprentissage actif nuit à ses performances en temps réel. Nos contributions dans cette thèse visent à analyser et résoudre ces problèmes à quatre niveaux. Premièrement, nous observons les justifications derrière les décision d'un réseau de neurones. Deuxièmement, nous mettons ces justifications en perspective avec celles élaborées par des humains. Troisièmement, nous incitons un réseau de neurones à aligner ses justificatifs sur ceux d'un modèle professeur qui simule ceux d'un oracle humain, et améliorons sa précision. Finalement, nous mettons au point et exploitons un système d'apprentissage actif pour surmonter ses limitations usuelles. Ces études ont été menées sur des données uni-modales texte ou image, ou sur des paires multi-modales texte/image, principalement des articles de presse en anglais et en français. À travers les chapitres de cette thèse, nous traitons plusieurs cas d'utilisation parmi lesquels la reconnaissance du vague et des fausses nouvelles, la détection du manque d'avis contradictoires dans les articles et la classification d'articles comme abordant des sujets arbitrairement choisis, tels que les manifestations ou la violence
A profusion of openly accessible content, actors and interactions is targeted by analysts for intelligence, marketing or political purposes. Analysing the immensity of open source data requires automated assistance. Although recent propositions in neural network architectures have demonstrated strong capacities for image and text modalities, their training harnesses massive training datasets, non-existent for the majority of operational classes of interest. To address this issue, active learning takes advantage of the great amounts of unlabelled documents by soliciting from a human oracle the ground-truth labels of the presumed most informative documents, to improve accuracy. Yet, the model's decision-making rationales are opaque and might be unrelated to those of the oracle. Furthermore, with its time-consuming iterative steps, the active learning workflow is detrimental to its real-time performances. Our contributions in this thesis aim to analyse and address these issues at four levels. Firstly, we observe the rationales behind a neural network's decisions. Secondly, we put these rationales into perspective with human rationales. Thirdly, we try and make the neural network align its decision-making rationales with those of a teacher model to simulate the rationales of a human oracle and improve accuracy in what is called active learning with rationales. Finally, we design and exploit an active learning framework to overcome its usual limitations. These studies were conducted with uni-modal text and image data, and multi-modal text and image associations, principally press articles in English and French. Throughout this work's chapters, we address several use cases among which fake news classification, vagueness classification, the detection of lack of contradiction in articles, the detection of arbitrary topics such as demonstrations and violence
APA, Harvard, Vancouver, ISO, and other styles
43

Carriere, Véronique. "Apprentissage médié par les TICE : le cas des étudiants déficients visuels." Phd thesis, Université Paul Valéry - Montpellier III, 2012. http://tel.archives-ouvertes.fr/tel-00718447.

Full text
Abstract:
Cette recherche porte sur les apprentissages médiés par les TICE chez les étudiants déficients visuels. La particularité de ces apprentissages réside dans la nécessité d'utiliser des outils informatiques adaptés afin de pallier le manque de vision. La dernière décennie s'inscrit dans un contexte où le cadre législatif en faveur des personnes en situation de handicap se met en place en parallèle d'une expansion du numérique. Nous prenons appui sur un corpus audio et audiovisuel issu d'expérience d'apprentissage in situ et d'entretiens semi-qualitatifs. Grâce à un système d'analyse pluridisciplinaire (analyse de contenu, analyse du discours, sociocognitivisme) notre étude vise, d'une part, à analyser quels sont les freins humains et techniques subsistant dans l'apprentissage de ces étudiants. D'autre part, nous nous intéressons aux stratégies d'adaptation mises en oeuvre par les étudiants mais aussi par les acteurs de la vie universitaire afin de pallier la déficience visuelle. Enfin, en explorant les différentes modalités sensorielles, nous nous attachons à apporter des pistes de réflexion et des préconisations visant à améliorer les conditions d'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
44

Peterson, Esperança. "Apprentissage du français langue étrangère et valeurs socioculturelles : le contenu socioculturel des manuels en usage en Angola." Pau, 2008. http://www.theses.fr/2008PAUU1002.

Full text
Abstract:
Ce travail porte sur l’enseignement et l’apprentissage du contenu socioculturel des manuels de français en usage en Angola au niveau débutant, niveau où les apprenants ont contact avec l’inconnu ou l’étranger. Il se construit à partir d’un diagnostic et d’une analyse des difficultés rencontrées par les enseignants angolais dans leur confrontation à la culture française et présente des réflexions sur des questions comme quel contenu socioculturel enseigner aux apprenants angolais débutants en français et selon quelle méthode ? Que faire du contenu socioculturel présent dans les manuels en usage faute d’indications méthodologiques et de formation des enseignants ? Il présente les résultats d’analyse des manuels et des enquêtes réalisées dans des écoles publiques et privées de trois provinces. Il conclut que, souvent les enseignants négligent la partie culturelle des manuels par manque de formation, informations et moyens méthodologiques. Par conséquent, il termine par les propositions d’un module de formation et d’un guide interculturel pour améliorer leurs pratiques de classes
This work concerns the teaching and the training of the sociocultural contents of the French handbooks of Angola use at the initial level, level where learning have contact with the unknown or the foreigner. It from a diagnosis and an analysis the difficulties encountered by the Angolan teachers in their confrontation to the culture French and present the reflections on questions like which sociocultural contents are built to start of teaching with learning the Angolan French beginners and according to which method? What to make sociocultural contents presents in the handbooks of fault use of methodological indications and training of the teachers? It has the results of analysis and the handbooks and the investigations carried out in public and deprived schools of three provinces. It concludes that, often the teachers neglect the cultural part of the handbooks for lack of formation, methodological information and means. Consequently, it finishes by the proposals of a module of formation and an intercultural guide to improve their practices of classes
APA, Harvard, Vancouver, ISO, and other styles
45

Mondou, Damien. "Gestion adaptative des contenus numériques : proposition d’un framework générique par apprentissage et re-scénarisation dynamique." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS029.

Full text
Abstract:
Cette thèse a pour objectif de proposer une architecture répondant aux problématiques de conception, de supervision, de pilotage et d’adaptation d’une expérience interactive. Nous proposons donc un framework complet destiné à faciliter la phase de modélisation d’un système interactif et garantissant une souplesse suffisante pour atteindre les objectifs de complexité, d’extensibilité, d’adaptabilité et d’amélioration par apprentissage automatique. Pour cela, le modèle formel, CIT, basé sur deux couches de description a été introduit. Le processus de supervision dynamique consiste à contrôler l’expérience interactive au regard du modèle formel, basé sur des réseaux d’automates temporisés à entrées/sorties. Deux plateformes logicielles, CELTIC (Common Editor for Location Time Interaction and Content) et EDAIN (Execution Driver based on Artificial INtelligence), implémentant respectivement le modèle CIT et le moteur de supervision de l’activité ont été développés au cours de cette thèse
This thesis aims to propose an architecture that addresses the design, supervision, management and adaptation of an interactive experience. We therefore propose a complete framework to facilitate the modeling phase of an interactive system and guarantee sufficient flexibility to achieve the objectives of complexity, scalability, adaptability and improvement through automatic learning. For this purpose, the formal model, CIT, based on two layers of description was introduced. The dynamic supervision process consists in controlling the interactive experience with regard to the formal model, based on networks of timed input/output automata. Two softwares, CELTIC (Common Editor for Location Time Interaction and Content) and EDAIN (Execution Driver based on Artificial INtelligence), implementing the CIT model and the activity supervision engine respectively, were developed during this thesis
APA, Harvard, Vancouver, ISO, and other styles
46

Jollivet, Chantal, and Eric Blanchard. "L'apprentissage coopératif dans la formation continue des enseignants du premier degré." Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR1PS04.

Full text
Abstract:
L'objectif de notre recherche conjointe est de mettre en évidence d'une part comment le concept de réciprocité éducative encourage, dans le cadre de la formation continue des enseignants du premier degré, le développement professionnel et personnel et d'autre part comment, selon un point de vue sociologique, les enseignants en situation de groupe, construisent une coopération en termes d'attitudes et de savoirs. De plus, fondée sur cette notion de réciprocité, notre thèse est doublement ancrée dans la construction coopérante, puisque la coopération est en même temps l'objet et l'outil de notre recherche interactive. L'objet, parce que la recherche conjointe est constituée par la mise en place, la conduite puis l'analyse d'un dispositif de formation d'enseignants sur la base d'un travail coopératif. L'outil, car cette recherche place deux chercheurs dans une réflexion parfois personnelle et parfois coopérative. Notre réflexion s'inscrit dans une problématique actuelle de la formation continue des enseignants dont l'enjeu est double : comment engager les enseignants sur la voie de la réflexivité ? Comment initier une prise de conscience de ce qui se joue dans la coopération ?La réponse que nous proposons est la mise en place d'un dispositif de formation qui tout en intégrant dans son contenu l'analyse de pratique, procède d'une horizontalité des savoirs. Ainsi, recherche, formation et action œuvrent conjointement, en même temps que ce sont les relations interpersonnelles qui construisent de nouvelles représentations au sein de la complexité de l'acte éducatif. L'expérience de terrain nous montre que l'enrichissement personnel est un mouvement entretenu par tous les partenaires de la formation et qu'il s'inscrit dans une subjectivité collégiale. Elle nous montre aussi que si la coopération est nécessaire pour faire face à la complexité, elle va de pair avec un certain nombre de défis sous-tendus par une éthique de la différence
The objectives of our joint research are to demonstrate how the concept of educational reciprocity encourages the ongoing personal and professional development of teachers, and secondly, from a sociological point of view, to explore how teachers in a group situation begin to cooperate in terms of attitudes and knowledge. Moreover, our thesis which is based on the notion of reciprocity, is doubly centered on constructive cooperation, this is in effect both the aim and the means of our interactive research. The aim of our joint research consists of the putting into practice and the analysis of a teacher training mechanism on the basis of cooperative work. Cooperation is also the means of our research. This research is innovative in the sense that it places two researchers in a personal and sometimes cooperative thought process, where they need to construct the various stages of the undertaking using parallel approaches. We explore issues concerned with the professional development of teachers : how to help professionals to become reflective practitioners and how to help them appreciate what can be gained from cooperative teaching. Our proposition is to put in a place a training facility that not only analyses current practice, but takes into account the parallel layers of knowledge and understanding. First hand experience has shown us that personal enrichment is developed through the participation of all partners and is based on a collegial approach. It has also shown of that if cooperation is necessary to surmount complexity, there are also a certain number of challenges to overcome, due the variety of different approaches. The challenge of such a cooperative training program is that teachers, in their professional setting, can with the cooperation of teacher trainers and university researchers construct a training program that unites classroom practice and theory
APA, Harvard, Vancouver, ISO, and other styles
47

Ettehadi, Seyedrohollah. "Model-based and machine learning techniques for nonlinear image reconstruction in diffuse optical tomography." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11895.

Full text
Abstract:
La tomographie optique diffuse (TOD) est une modalité d’imagerie biomédicale 3D peu dispendieuse et non-invasive qui permet de reconstruire les propriétés optiques d’un tissu biologique. Le processus de reconstruction d’images en TOD est difficile à réaliser puisqu’il nécessite de résoudre un problème non-linéaire et mal posé. Les propriétés optiques sont calculées à partir des mesures de surface du milieu à l’étude. Dans ce projet, deux méthodes de reconstruction non-linéaire pour la TOD ont été développées. La première méthode utilise un modèle itératif, une approche encore en développement qu’on retrouve dans la littérature. L’approximation de la diffusion est le modèle utilisé pour résoudre le problème direct. Par ailleurs, la reconstruction d’image à été réalisée dans différents régimes, continu et temporel, avec des mesures intrinsèques et de fluorescence. Dans un premier temps, un algorithme de reconstruction en régime continu et utilisant des mesures multispectrales est développé pour reconstruire la concentration des chromophores qui se trouve dans différents types de tissus. Dans un second temps, un algorithme de reconstruction est développé pour calculer le temps de vie de différents marqueurs fluorescents à partir de mesures optiques dans le domaine temporel. Une approche innovatrice a été d’utiliser la totalité de l’information du signal temporel dans le but d’améliorer la reconstruction d’image. Par ailleurs, cet algorithme permettrait de distinguer plus de trois temps de vie, ce qui n’a pas encore été démontré en imagerie de fluorescence. La deuxième méthode qui a été développée utilise l’apprentissage machine et plus spécifiquement l’apprentissage profond. Un modèle d’apprentissage profond génératif est mis en place pour reconstruire la distribution de sources d’émissions de fluorescence à partir de mesures en régime continu. Il s’agit de la première utilisation d’un algorithme d’apprentissage profond appliqué à la reconstruction d’images en TOD de fluorescence. La validation de la méthode est réalisée avec une mire aux propriétés optiques connues dans laquelle sont inséres des marqueurs fluorescents. La robustesse de cette méthode est démontrée même dans les situations où le nombre de mesures est limité et en présence de bruit.
Abstract : Diffuse optical tomography (DOT) is a low cost and noninvasive 3D biomedical imaging technique to reconstruct the optical properties of biological tissues. Image reconstruction in DOT is inherently a difficult problem, because the inversion process is nonlinear and ill-posed. During DOT image reconstruction, the optical properties of the medium are recovered from the boundary measurements at the surface of the medium. In this work, two approaches are proposed for non-linear DOT image reconstruction. The first approach relies on the use of iterative model-based image reconstruction, which is still under development for DOT and that can be found in the literature. A 3D forward model is developed based on the diffusion equation, which is an approximation of the radiative transfer equation. The forward model developed can simulate light propagation in complex geometries. Additionally, the forward model is developed to deal with different types of optical data such as continuous-wave (CW) and time-domain (TD) data for both intrinsic and fluorescence signals. First, a multispectral image reconstruction algorithm is developed to reconstruct the concentration of different tissue chromophores simultaneously from a set of CW measurements at different wavelengths. A second image reconstruction algorithm is developed to reconstruct the fluorescence lifetime (FLT) of different fluorescent markers from time-domain fluorescence measurements. In this algorithm, all the information contained in full temporal curves is used along with an acceleration technique to render the algorithm of practical use. Moreover, the proposed algorithm has the potential of being able to distinguish more than 3 FLTs, which is a first in fluorescence imaging. The second approach is based on machine learning techniques, in particular deep learning models. A deep generative model is proposed to reconstruct the fluorescence distribution map from CW fluorescence measurements. It is the first time that such a model is applied for fluorescence DOT image reconstruction. The performance of the proposed algorithm is validated with an optical phantom and a fluorescent marker. The proposed algorithm recovers the fluorescence distribution even from very noisy and sparse measurements, which is a big limitation in fluorescence DOT imaging.
APA, Harvard, Vancouver, ISO, and other styles
48

Blanchart, Pierre. "Apprentissage rapide adapté aux spécificités de l'utilisateur : application à l'extraction d'informations d'images de télédétection." Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00662747.

Full text
Abstract:
Le traitement des images de télédétection a reçu ces dernières années une attention accrue du fait notamment de l'augmentation du nombre et de la résolution des instruments d'observation de la Terre. Avec l'apparition de capteurs de résolution métriques, les contenus informationnels des images se diversifient énormément et l'accroissement des capacités d'archivage permet de stocker de plus en plus d'images. Dans ce contexte, la nécessité de recourir à des systèmes d'indexation automatique d'images se fait nettement sentir car il n'est plus possible d'analyser toutes les images manuellement. Au cours de ma thèse, j’ai proposé différentes contributions autour de l'apprentissage avec très peu d'exemples qui est une problématique propre à l'imagerie satellitaire. Les méthodes développées concernent principalement l'utilisation de méthodes semi-supervisées pour exploiter l'information contenue dans les données non-labélisées et pallier en quelque sorte la faiblesse et la non-exhaustivité des bases d'apprentissage. Un premier scénario concerne l’utilisation de méthodes semi-supervisées dans le cadre des systèmes d’annotation automatique. L’idée est d’utiliser les données non-labélisées pour identifier des structures inconnues dans les données (i. E. Qui ne sont pas représentées au niveau de la base d’apprentissage) et de guider l’utilisateur dans sa tâche d’exploration de la base d’images. Les deux scénarios suivants présentent des systèmes avec retour de pertinence utilisant des méthodes de type apprentissage actif pour apprendre le concept ciblé par l’utilisateur. Les données non-labélisées sont utilisées pour minimiser le nombre d’interactions système-utilisateur
An important emerging topic in satellite image content extraction and classification is building retrieval systems that automatically learn high-level semantic interpretations from images, possibly under the direct supervision of the user. In this thesis, we envisage successively the two very broad categories of auto-annotation systems and interactive image search engine to propose our own solutions to the recurring problem of learning from small and non-exhaustive training datasets and of generalizing over a very high-volume of unlabeled data. In our first contribution, we look into the problem of exploiting the huge volume of unlabeled data to discover "unknown" semantic structures, that is, semantic classes which are not represented in the training dataset. We propose a semi-supervised algorithm able to build an auto-annotation model over non-exhaustive training datasets and to point out to the user new interesting semantic structures in the purpose of guiding him in his database exploration task. In our second contribution, we envisage the problem of speeding up the learning in interactive image search engines. We derive a semi-supervised active learning algorithm which exploits the intrinsic data distribution to achieve faster identification of the target category. In our last contribution, we describe a cascaded active learning strategy to retrieve objects in large satellite image scenes. We propose consequently an active learning method which exploits a coarse-to-fine scheme to avoid the computational overload inherent to multiple evaluations of the decision function of complex classifiers such as needed to retrieve complex object classes
APA, Harvard, Vancouver, ISO, and other styles
49

Blanchart, Pierre. "Apprentissage rapide adapté aux spécificités de l'utilisateur : application à l'extraction d'informations d'images de télédétection." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00662747.

Full text
Abstract:
Le but des systèmes de recherche d'images est de diriger rapidement l'utilisateur vers des contenus qui sont pertinents par rapport à la requête qu'il a formulée. Après une présentation de la problématique et un état d'art du domaine, cette thèse présente nos contributions dans le cadre de l'apprentissage avec très peu d'exemples qui est propre à l'imagerie satellitaire. Ces contributions se situent principalement autour de l'utilisation de méthodes semi-supervisées pour exploiter l'information contenue dans les données non-labellisées et pallier en quelque sorte la faiblesse et la non-exhaustivité des bases d'apprentissage. Nous présentons deux scénarios d'utilisation de méthodes semi-supervisées. Le premier se place dans le cadre d'un système d'annotation automatique d'images. Le but est alors de détecter les structures inconnues, c'est à dire les ensembles cohérents de données qui ne sont pas représentées dans la base d'apprentissage et ainsi de guider l'utilisateur dans son exploration de la base. Le second scénario concerne les systèmes de recherche interactive d'images. L'idée est d'exploiter une structuration des données, sous la forme d'un clustering par exemple, pour accélérer l'apprentissage (i.e. minimiser le nombre d'itérations de feedback) dans le cadre d'un système avec boucle de pertinence. La nouveauté de nos contributions se situe autour du fait que la plupart des méthodes semi-supervisées ne permettent pas de travailler avec de gros volumes de données comme on en rencontre en imagerie satellitaire ou alors ne sont pas temps-réel ce qui est problématique dans un système avec retour de pertinence où la fluidité des interactions avec l'utilisateur est à privilégier. Un autre problème qui justifie nos contributions est le fait que la plupart des méthodes semi-supervisées font l'hypothèse que la distribution des données labellisées suit la distribution des données non labellisées, hypothèse qui n'est pas vérifiée dans notre cas du fait de la non-exhaustivité des bases d'apprentissage et donc de l'existence de structures inconnues au niveau des données non labellisées. La dernière partie de cette thèse concerne un système de recherche d'objets à l'intérieur d'un schéma de type apprentissage actif. Une stratégie de type "coarse-to-fine" est introduite pour autoriser l'analyse de la base d'images à une taille de patch beaucoup plus "fine" tout en maintenant un nombre raisonnable d'évaluations de la fonction de décision du classificateur utilisé à chaque itération de la boucle d'apprentissage actif. L'idée est d' élaguer de grandes parties de la base de données à une échelle d'analyse dite "grossière'', afin de réserver un traitement plus complexe et plus coûteux sur des zones restreintes et plus prometteuses des images.
APA, Harvard, Vancouver, ISO, and other styles
50

Veniat, Tom. "Neural Architecture Search under Budget Constraints." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS443.

Full text
Abstract:
L'augmentation de la puissance de calcul et de la quantité de données disponible ont permis la montée en popularité de l'apprentissage profond. Cependant, l'expertise et les ressources nécessaires pour construire de tels algorithmes ainsi que l'empreinte mémoire et le temps d'inférence lors de l'utilisation sont autant d'obstacles à l'utilisation de ces méthodes. Dans cette thèse, nous proposons de construire des modèles d'apprentissage profond de manière plus efficace et automatisée. Tout d'abord, nous nous concentrons sur l'apprentissage d'une architecture efficace pour les problèmes de traitement d'images. Nous proposons un modèle dans lequel nous pouvons guider la procédure d'apprentissage d'architecture en spécifiant un budget et une fonction de coût fixes. Ensuite, nous considérons le problème de la classification de séquences, où un modèle peut être encore plus efficace en adaptant dynamiquement sa taille à la complexité du signal à venir. Enfin, nous abordons le problème de l'efficacité sous l'angle de l'apprentissage par transfert, une procédure d'apprentissage pouvant être rendue encore plus efficace si elle s'appuie sur des connaissances acquises lors d'expériences précédentes. Nous explorons les architectures modulaires dans le scénario de l'apprentissage continuel et présentons un nouveau benchmark permettant une évaluation fine des différents types de transfert
The recent increase in computation power and the ever-growing amount of data available ignited the rise in popularity of deep learning. However, the expertise, the amount of data, and the computing power necessary to build such algorithms as well as the memory footprint and the inference latency of the resulting system are all obstacles preventing the widespread use of these methods. In this thesis, we propose several methods allowing to make a step towards a more efficient and automated procedure to build deep learning models. First, we focus on learning an efficient architecture for image processing problems. We propose a new model in which we can guide the architecture learning procedure by specifying a fixed budget and cost function. Then, we consider the problem of sequence classification, where a model can be even more efficient by dynamically adapting its size to the complexity of the signal to come. We show that both approaches result in significant budget savings. Finally, we tackle the efficiency problem through the lens of transfer learning. Arguing that a learning procedure can be made even more efficient if, instead of starting tabula rasa, it builds on knowledge acquired during previous experiences. We explore modular architectures in the continual learning scenario and present a new benchmark allowing a fine-grained evaluation of different kinds of transfer
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography