Dissertations / Theses on the topic 'Apprentissage par représentation'

To see the other types of publications on this topic, follow the link: Apprentissage par représentation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage par représentation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
2

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066040.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
3

Tremblay, Guillaume. "Optimisation d'ensembles de classifieurs non paramétriques avec apprentissage par représentation partielle de l'information." Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/716/1/TREMBLAY_Guillaume.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'un des défis de la reconnaissance de formes (RF) est de concevoir des systèmes à la fois simples (peu de paramètres, faible coût de calcul) et performants (haut taux de reconnaissance). Il est démontré que les ensembles de classifieurs (EoC) peuvent permettre d'obtenir de meilleures performances qu'un classifieur unique, d'où la recherche d'un compromis entre simplicité et performance. L'utilisation de classifieurs non paramétriques de type k-NN ayant une représentation partielle de l'information favorise toutefois la simplicité d'un système de RF. Dans le présent travail, nous avons utilisé un tel ensemble de k-NN pour vérifier s'il était possible de concevoir des EoC par sélection de classifieurs pour améliorer la simplicité tout en augmentant la performance du système. L'utilisation d'un algorithme d'optimisation pouvant explorer de grands espaces mal définis est nécessaire pour atteindre cet objectif. Afin d'aider la recherche, différentes mesures de «diversité» sont proposées dans la littérature. Nous avons tenté d'optimiser un EoC à l'aide de différentes méthodes de recherche et avons testé l'effet de la maximisation conjointe de la performance avec un échantillon des mesures de diversité les plus populaires. Toutes les expériences ont été répétées 30 fois de façon à pouvoir comparer, à l'aide de tests statistiques, les différentes approches évaluées. Nous avons découvert que la maximisation conjointe de la simplicité et de la performance était la meilleure façon de créer un ensemble optimisant ces deux objectifs. Par contre, pour générer des ensembles ayant une performance maximale, l'utilisation d'un algorithme de recherche à un seul objectif est préférable. Contrairement à nos attentes, il n'a pas été possible de démontrer un avantage significatif à l'utilisation d'une mesure de diversité comme critère d'optimisation. À notre connaissance, c'était la première fois qu'était étudiée de manière exhaustive la façon de faire de la sélection de classifieurs de type k-NN basés sur le paradigme des sous-espaces aléatoires. L'application systématique de tests statistiques pour valider les résultats des stratégies de sélection de classifieurs a été rendue possible grâce à l'utilisation d'une grappe d'ordinateurs et à la création de base de données de votes précalculés. Cette validation statistique est rarement mise en oeuvre dans le domaine.
4

Scherrer, Bruno. "Apprentissage de représentation et auto-organisation modulaire pour un agent autonome." Phd thesis, Université Henri Poincaré - Nancy I, 2003. http://tel.archives-ouvertes.fr/tel-00003377.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie l'utilisation d'algorithmes connexionnistes pour résoudre des problèmes d'apprentissage par renforcement. Les algorithmes connexionnistes sont inspirés de la manière dont le cerveau traite l'information : ils impliquent un grand nombre d'unités simples fortement interconnectées, manipulant des informations numériques de manière distribuée et massivement parallèle. L'apprentissage par renforcement est une théorie computationnelle qui permet de décrire l'interaction entre un agent et un environnement : elle permet de formaliser précisément le problème consistant à atteindre un certain nombre de buts via l'interaction.

Nous avons considéré trois problèmes de complexité croissante et montré qu'ils admettaient des solutions algorithmiques connexionnistes : 1) L'apprentissage par renforcement dans un petit espace d'états : nous nous appuyons sur un algorithme de la littérature pour construire un réseau connexionniste ; les paramètres du problème sont stockés par les poids des unités et des connexions et le calcul du plan est le résultat d'une activité distribuée dans le réseau. 2) L'apprentissage d'une représentation pour approximer un problème d'apprentissage par renforcement ayant un grand espace d'états : nous automatisons le procédé consistant à construire une partition de l'espace d'états pour approximer un problème de grande taille. 3) L'auto-organisation en modules spécialisés pour approximer plusieurs problèmes d'apprentissage par renforcement ayant un grand espace d'états : nous proposons d'exploiter le principe "diviser pour régner" et montrons comment plusieurs tâches peuvent être réparties efficacement sur un petit nombre de modules fonctionnels spécialisés.
5

Filippi, Sarah. "Stratégies optimistes en apprentissage par renforcement." Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2010. http://tel.archives-ouvertes.fr/tel-00551401.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de méthodes « model-based » pour résoudre des problèmes d'apprentissage par renforcement. On considère un agent confronté à une suite de décisions et un environnement dont l'état varie selon les décisions prises par l'agent. Ce dernier reçoit tout au long de l'interaction des récompenses qui dépendent à la fois de l'action prise et de l'état de l'environnement. L'agent ne connaît pas le modèle d'interaction et a pour but de maximiser la somme des récompenses reçues à long terme. Nous considérons différents modèles d'interactions : les processus de décisions markoviens, les processus de décisions markoviens partiellement observés et les modèles de bandits. Pour ces différents modèles, nous proposons des algorithmes qui consistent à construire à chaque instant un ensemble de modèles permettant d'expliquer au mieux l'interaction entre l'agent et l'environnement. Les méthodes dites « model-based » que nous élaborons se veulent performantes tant en pratique que d'un point de vue théorique. La performance théorique des algorithmes est calculée en terme de regret qui mesure la différence entre la somme des récompenses reçues par un agent qui connaîtrait à l'avance le modèle d'interaction et celle des récompenses cumulées par l'algorithme. En particulier, ces algorithmes garantissent un bon équilibre entre l'acquisition de nouvelles connaissances sur la réaction de l'environnement (exploration) et le choix d'actions qui semblent mener à de fortes récompenses (exploitation). Nous proposons deux types de méthodes différentes pour contrôler ce compromis entre exploration et exploitation. Le premier algorithme proposé dans cette thèse consiste à suivre successivement une stratégie d'exploration, durant laquelle le modèle d'interaction est estimé, puis une stratégie d'exploitation. La durée de la phase d'exploration est contrôlée de manière adaptative ce qui permet d'obtenir un regret logarithmique dans un processus de décision markovien paramétrique même si l'état de l'environnement n'est que partiellement observé. Ce type de modèle est motivé par une application d'intérêt en radio cognitive qu'est l'accès opportuniste à un réseau de communication par un utilisateur secondaire. Les deux autres algorithmes proposés suivent des stratégies optimistes : l'agent choisit les actions optimales pour le meilleur des modèles possibles parmi l'ensemble des modèles vraisemblables. Nous construisons et analysons un tel algorithme pour un modèle de bandit paramétrique dans un cas de modèles linéaires généralisés permettant ainsi de considérer des applications telles que la gestion de publicité sur internet. Nous proposons également d'utiliser la divergence de Kullback-Leibler pour la construction de l'ensemble des modèles vraisemblables dans des algorithmes optimistes pour des processus de décision markoviens à espaces d'états et d'actions finis. L'utilisation de cette métrique améliore significativement le comportement de des algorithmes optimistes en pratique. De plus, une analyse du regret de chacun des algorithmes permet de garantir des performances théoriques similaires aux meilleurs algorithmes de l'état de l'art.
6

Pingand, Philippe. "Etude d'un environnement permettant l'acquisition de connaissance par apprentissage : application à l'analyse structurelle des protéines." Montpellier 2, 1990. http://www.theses.fr/1990MON20028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système Aloha a pour fonction de permettre l'expérimentation de l'usage de l'apprentissage pour exploiter une base de données. Les étapes de construction d'un raisonnement par analogie s'appuyant sur des connaissances apprises sont exposées. Les faits sont produits par abduction par le système Inne, qui permet d'apprendre les caractéristiques d'une classe d'objets à partir de leur description sous forme de graphes conceptuels. Les hypothèses sont exprimées comme des conjonctions de faits caractéristiques d'exemples types. Le raisonnement par analogie intervient par la détermination de contraintes suffisantes pour construire une hypothèse. Le contrôle est réalisé par une objection contextuée du raisonnement analogique. Le système constitue une aide à la construction interactive de requêtes; il repose sur un cycle inductif de raffinement de la connaissance. Nous l'expérimentons en biologie moléculaire, sur l'étude du repliement des protéines. Nous développons une description des objets protéiques à partir de matrices de distances et de propriétés physico-chimiques.
7

Robbes, Bruno. "Du mythe de l'autorité naturelle à l'autorité éducative de l'enseignant : des savoirs à construire entre représentation et action." Paris 10, 2007. http://www.theses.fr/2007PA100049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le paradigme de l’autorité éducative développé dans cette thèse tente de repenser une question sur laquelle bute l’enseignant : comment exercer son autorité ? S’accorder sur une redéfinition de l’autorité éducative, à partir de sa socio-psychogénèse et de son étymologie, est indispensable. Des entretiens cliniques ont contribué à élucider les significations inconscientes de l’autorité, en lien avec les histoires singulières. Des entretiens d’explicitation ont permis de mettre au jour les savoirs d’action mobilisés par ces mêmes enseignants dans la pratique de l’autorité, à travers des situations spécifiées. Les interventions verbales dominent dans la transmission des messages, mais des savoirs liés au corps s’avèrent souvent plus efficaces. Enfin, des liens sont établis entre le sens conscientisé des actions et quelques-unes de leurs significations inconscientes. Ainsi, l’autorité de l’enseignant n’est pas « naturelle » mais résulte d’une construction de savoirs dans l’action
The paradigm of educative authority dealt with in this thesis is trying to reanalyse a question which teachers come up against : how can they use their authority ? Agreeing about a new definition of educative authority, based on its socio-psychogenesis and its etymology, is essential. Clinic interviews led to clear up unconscious meanings of authority, according to personal stories. Clarifying interviews enabled to reveal acting knowledge used by the very same teachers when practising authority in specified situations. Verbal interventions are overshadowing in the transmission of messages, but knowledge linked to the body often turns to be more efficient. Eventually, links are being created between the aware meaning of actions and some of their unconscious significances. Thus, teachers’ authority is not “natural” but it is the result of a construction of knowledge within action
8

Mountassir, Mahjoub El. "Surveillance d'intégrité des structures par apprentissage statistique : application aux structures tubulaires." Electronic Thesis or Diss., Université de Lorraine, 2019. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2019_0047_EL_MOUNTASSIR.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les approches de surveillance de l’intégrité des structures ont été proposées pour permettre un contrôle continu de l’état des structures en intégrant à celle-ci des capteurs intelligents. En effet, ce contrôle continu doit être effectué pour s’assurer du bon fonctionnement de celles-ci car la présence d’un défaut dans la structure peut aboutir à un accident catastrophique. Cependant, la variation des conditions environnementales et opérationnelles (CEO) dans lesquelles la structure évolue, impacte sévèrement les signaux collectés ce qui induit parfois une mauvaise interprétation de la présence du défaut dans la structure. Dans ce travail de thèse, l’application des méthodes d’apprentissage statistiques classiques a été envisagée dans le cas des structures tubulaires. Ici, les effets des paramètres de mesures sur la robustesse de ces méthodes ont été investiguées. Ensuite, deux approches ont été proposées pour remédier aux effets des CEO. La première approche suppose que la base de données des signaux de référence est suffisamment riche en variation des CEO. Dans ce cas, une estimation parcimonieuse du signal mesuré est calculée. Puis, l’erreur d’estimation est utilisée comme indicateur de défaut. Tandis que la deuxième approche est utilisée dans le cas où la base de données des signaux des références contient une variation limitée des CEO mais on suppose que celles-ci varient lentement. Dans ce cas, une mise à jour du modèle de l’état sain est effectuée en appliquant l’analyse en composante principale (PCA) par fenêtre mobile. Dans les deux approches, la localisation du défaut a été assurée en utilisant une fenêtre glissante sur le signal provenant de l’état endommagé
To ensure better working conditions of civil and engineering structures, inspections must be made on a regular basis. However, these inspections could be labor-intensive and cost-consuming. In this context, structural health monitoring (SHM) systems using permanently attached transducers were proposed to ensure continuous damage diagnostic of these structures. In SHM, damage detection is generally based on comparison between the healthy state signals and the current signals. Nevertheless, the environmental and operational conditions will have an effect on the healthy state signals. If these effects are not taken into account they would result in false indication of damage (false alarm). In this thesis, classical machine learning methods used for damage detection have been applied in the case of pipelines. The effects of some measurements parameters on the robustness of these methods have been investigated. Afterthat, two approaches were proposed for damage diagnostic depending on the database of reference signals. If this database contains large variation of these EOCs, a sparse estimation of the current signal is calculated. Then, the estimation error is used as an indication of the presence of damage. Otherwise, if this database is acquired at limited range of EOCs, moving window PCA can be applied to update the model of the healthy state provided that the EOCs show slow and continuous variation. In both approaches, damage localization was ensured using a sliding window over the damaged pipe signal
9

Gaudiello, Ilaria. "Learning robotics, with robotics, by robotics : a study on three paradigms of educational robotics, under the issues of robot representation, robot acceptance, and robot impact on learning." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La relation entre progrès technologique et innovation pédagogique a récemment engendré un nouveau champ de recherche, à la croisée des chemins entre la Psychologie, les Sciences de l’Education et l’Intelligence Artificielle : la Robotique Educationnelle (RE). La présente thèse fournit un état de l’art critique sur la RE, ses origines et son positionnement au sein des technologies de l’information et de la communication pour l’enseignement (TICE). A travers une analyse des finalités éducatives atteignables en fonction du statut technologique et des modalités d’apprentissage spécifiques aux différents types de robots, nous définissons trois paradigmes pédagogiques : (i) l’apprentissage de la robotique, (ii) l'apprentissage avec la robotique, et (iii) l'apprentissage par la robotique. Ces trois paradigmes sont abordés à travers trois thématiques, dans une perspective de recherche fondamentale en Psychologie : (i) les représentations mentales que les humains ont du robot, (ii) l’acceptation et la confiance dans les interactions homme-robot et (iii) les apprentissages favorisés par les robots en contexte éducatif
Through a psychological perspective, the thesis concerns the three ER learning paradigms that are distinguished upon the different hardware, software, and correspondent modes of interaction allowed by the robot. Learning robotics was investigated under the issue of robot representation. By robot representation, we mean its ontological and pedagogical status and how such status change when users learn robotics. In order to answer this question, we carried out an experimental study based on pre- and post-inquiries, involving 79 participants. Learning with robotics was investigated under the issue of robot’s functional and social acceptance. Here, the underlying research questions were as follows: do students trust in robot’s functional and social savvy? Is trust in functional savvy a pre-requisite for trust in social savvy? Which individuals and contextual factors are more likely to influence this trust? In order to answer these questions, we have carried an experimental study with 56 participants and an iCub robot. Trust in the robot has been considered as a main indicator of acceptance in situations of perceptual and socio-cognitive uncertainty and was measured by participants’ conformation to answers given by iCub. Learning by robotics was investigated under the issue of robot’s impact on learning. The research questions were the following: to what extent the combined RBI & IBSE frame has a positive impact on cognitive, affective, social and meta-cognitive dimensions of learning? Does this combined educational frame improve both domain-specific and non-domain specific knowledge and competences of students? In order to answer these questions, we have carried a one-year RBI & IBSE experimental study in the frame of RObeeZ, a research made through the FP7 EU project Pri-Sci-Net. The longitudinal experiments involved 26 pupils and 2 teachers from a suburb parisian primary school
10

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066042/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
11

Barbano, Carlo Alberto Maria. "Collateral-Free Learning of Deep Representations : From Natural Images to Biomedical Applications." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’apprentissage profond est devenu l'un des outils prédominants pour résoudre une variété de tâches, souvent avec des performances supérieures à celles des méthodes précédentes. Les modèles d'apprentissage profond sont souvent capables d'apprendre des représentations significatives et abstraites des données sous-jacentes. Toutefois, il a été démontré qu'ils pouvaient également apprendre des caractéristiques supplémentaires, qui ne sont pas nécessairement pertinentes ou nécessaires pour la tâche souhaitée. Cela peut poser un certain nombre de problèmes, car ces informations supplémentaires peuvent contenir des biais, du bruit ou des informations sensibles qui ne devraient pas être prises en compte (comme le sexe, la race, l'âge, etc.) par le modèle. Nous appelons ces informations "collatérales". La présence d'informations collatérales se traduit par des problèmes pratiques, en particulier lorsqu'il s'agit de données d'utilisateurs privés. L'apprentissage de représentations robustes exemptes d'informations collatérales peut être utile dans divers domaines, tels que les applications médicales et les systèmes d'aide à la décision.Dans cette thèse, nous introduisons le concept d'apprentissage collatéral, qui se réfère à tous les cas où un modèle apprend plus d'informations que prévu. L'objectif de l'apprentissage collatéral est de combler le fossé entre différents domaines, tels que la robustesse, le débiaisage, la généralisation en imagerie médicale et la préservation de la vie privée. Nous proposons différentes méthodes pour obtenir des représentations robustes exemptes d'informations collatérales. Certaines de nos contributions sont basées sur des techniques de régularisation, tandis que d'autres sont représentées par de nouvelles fonctions de perte.Dans la première partie de la thèse, nous posons les bases de notre travail, en développant des techniques pour l'apprentissage de représentations robustes sur des images naturelles, en se concentrant sur les données biaisées.Plus précisément, nous nous concentrons sur l'apprentissage contrastif (CL) et nous proposons un cadre d'apprentissage métrique unifié qui nous permet à la fois d'analyser facilement les fonctions de perte existantes et d'en dériver de nouvelles.Nous proposons ici une nouvelle fonction de perte contrastive supervisée, ε-SupInfoNCE, et deux techniques de régularisation de débiaisage, EnD et FairKL, qui atteignent des performances de pointe sur un certain nombre de repères de classification et de débiaisage de vision standard.Dans la deuxième partie de la thèse, nous nous concentrons sur l'apprentissage collatéral sur les images de neuro-imagerie et de radiographie thoracique. Pour la neuro-imagerie, nous présentons une nouvelle approche d'apprentissage contrastif pour l'estimation de l'âge du cerveau. Notre approche atteint des résultats de pointe sur l'ensemble de données OpenBHB pour la régression de l'âge et montre une robustesse accrue à l'effet de site. Nous tirons également parti de cette méthode pour détecter des modèles de vieillissement cérébral malsains, ce qui donne des résultats prometteurs dans la classification d'affections cérébrales telles que les troubles cognitifs légers (MCI) et la maladie d'Alzheimer (AD). Pour les images de radiographie thoracique (CXR), nous ciblerons la classification Covid-19, en montrant comment l'apprentissage collatéral peut effectivement nuire à la fiabilité de ces modèles. Pour résoudre ce problème, nous proposons une approche d'apprentissage par transfert qui, combinée à nos techniques de régularisation, donne des résultats prometteurs sur un ensemble de données CXR multisites.Enfin, nous donnons quelques indications sur l'apprentissage collatéral et la préservation de la vie privée dans les modèles DL. Nous montrons que certaines des méthodes que nous proposons peuvent être efficaces pour empêcher que certaines informations soient apprises par le modèle, évitant ainsi une fuite potentielle de données
Deep Learning (DL) has become one of the predominant tools for solving a variety of tasks, often with superior performance compared to previous state-of-the-art methods. DL models are often able to learn meaningful and abstract representations of the underlying data. However, it has been shown that they might also learn additional features, which are not necessarily relevant or required for the desired task. This could pose a number of issues, as this additional information can contain bias, noise, or sensitive information, that should not be taken into account (e.g. gender, race, age, etc.) by the model. We refer to this information as collateral. The presence of collateral information translates into practical issues when deploying DL-based pipelines, especially if they involve private users' data. Learning robust representations that are free of collateral information can be highly relevant for a variety of fields and applications, like medical applications and decision support systems.In this thesis, we introduce the concept of Collateral Learning, which refers to all those instances in which a model learns more information than intended. The aim of Collateral Learning is to bridge the gap between different fields in DL, such as robustness, debiasing, generalization in medical imaging, and privacy preservation. We propose different methods for achieving robust representations free of collateral information. Some of our contributions are based on regularization techniques, while others are represented by novel loss functions.In the first part of the thesis, we lay the foundations of our work, by developing techniques for robust representation learning on natural images. We focus on one of the most important instances of Collateral Learning, namely biased data. Specifically, we focus on Contrastive Learning (CL), and we propose a unified metric learning framework that allows us to both easily analyze existing loss functions, and derive novel ones. Here, we propose a novel supervised contrastive loss function, ε-SupInfoNCE, and two debiasing regularization techniques, EnD and FairKL, that achieve state-of-the-art performance on a number of standard vision classification and debiasing benchmarks.In the second part of the thesis, we focus on Collateral Learning in medical imaging, specifically on neuroimaging and chest X-ray images. For neuroimaging, we present a novel contrastive learning approach for brain age estimation. Our approach achieves state-of-the-art results on the OpenBHB dataset for age regression and shows increased robustness to the site effect. We also leverage this method to detect unhealthy brain aging patterns, showing promising results in the classification of brain conditions such as Mild Cognitive Impairment (MCI) and Alzheimer's Disease (AD). For chest X-ray images (CXR), we will target Covid-19 classification, showing how Collateral Learning can effectively hinder the reliability of such models. To tackle such issue, we propose a transfer learning approach that, combined with our regularization techniques, shows promising results on an original multi-site CXRs dataset.Finally, we provide some hints about Collateral Learning and privacy preservation in DL models. We show that some of our proposed methods can be effective in preventing certain information from being learned by the model, thus avoiding potential data leakage
12

Bourget, Annick. "De la formation préclinique à la formation clinique : explicitation du développement du raisonnement clinique chez des étudiantes et des étudiants en médecine ayant suivi un programme basé sur l'apprentissage par problèmes." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6383.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de l'étude est d'explorer le développement du raisonnement clinique selon une perspective multidimensionnelle et longitudinale en considérant le modèle multidimensionnel du raisonnement clinique et le concept de compétence. Les questions de recherche sont : (1) quelles dimensions du raisonnement clinique se manifestent chez l'étudiant? (2) quelles étapes de développement est-il possible de repérer? Il s'agit d'une étude de cas multiples explorant le développement de cinq dimensions : "Représentation", "Processus", "Métacognition", "Connaissances" et "Structures". Quatre étudiants furent rencontrés à quatre moments entre la fin de leur formation préclinique et le début de leur formation clinique (12 mois). Chaque étudiant réalisait (1) une entrevue médicale avec un patient standardisé; (2) un entretien d'explicitation à partir d'une vidéo; (3) une carte cognitive et (4) une entrevue semi-dirigée. Des analyses intracas puis intercas furent réalisées suivant les étapes de condensation, de présentation et d'élaboration. L'analyse permet de conclure que les cinq dimensions sont présentes chez les étudiants dès la fin de leur formation préclinique et qu'il existe une interdépendance entre ces dimensions. De plus, cinq transformations témoignent du développement du raisonnement clinique chez l'étudiant : (1) automatisation et adaptation des connaissances procédurales de la collecte d'informations; (2) déplacement de la cible de la régulation; (3) passage d'une recherche de cohérence entre les signes et les symptômes à l'évaluation des hypothèses; (4) passage du recours aux connaissances biomédicales à l'utilisation marquée des connaissances cliniques et (5) émergence de scripts. Ces transformations témoignent de deux grandes étapes de développement : (1) intégration de la démarche de la collecte d'informations et (2) passage d'une démarche de compréhension à une démarche de catégorisation. S'inscrivant dans l'interrelation recherche-formation-pratique, les conclusions et la méthodologie de l'étude invitent à poursuivre l'exploration du développement du raisonnement clinique chez l'étudiant en médecine ainsi que dans d'autres domaines de la santé.
13

Gaudiello, Ilaria. "Learning robotics, with robotics, by robotics : a study on three paradigms of educational robotics, under the issues of robot representation, robot acceptance, and robot impact on learning." Electronic Thesis or Diss., Paris 8, 2015. http://www.theses.fr/2015PA080081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La relation entre progrès technologique et innovation pédagogique a récemment engendré un nouveau champ de recherche, à la croisée des chemins entre la Psychologie, les Sciences de l’Education et l’Intelligence Artificielle : la Robotique Educationnelle (RE). La présente thèse fournit un état de l’art critique sur la RE, ses origines et son positionnement au sein des technologies de l’information et de la communication pour l’enseignement (TICE). A travers une analyse des finalités éducatives atteignables en fonction du statut technologique et des modalités d’apprentissage spécifiques aux différents types de robots, nous définissons trois paradigmes pédagogiques : (i) l’apprentissage de la robotique, (ii) l'apprentissage avec la robotique, et (iii) l'apprentissage par la robotique. Ces trois paradigmes sont abordés à travers trois thématiques, dans une perspective de recherche fondamentale en Psychologie : (i) les représentations mentales que les humains ont du robot, (ii) l’acceptation et la confiance dans les interactions homme-robot et (iii) les apprentissages favorisés par les robots en contexte éducatif
Through a psychological perspective, the thesis concerns the three ER learning paradigms that are distinguished upon the different hardware, software, and correspondent modes of interaction allowed by the robot. Learning robotics was investigated under the issue of robot representation. By robot representation, we mean its ontological and pedagogical status and how such status change when users learn robotics. In order to answer this question, we carried out an experimental study based on pre- and post-inquiries, involving 79 participants. Learning with robotics was investigated under the issue of robot’s functional and social acceptance. Here, the underlying research questions were as follows: do students trust in robot’s functional and social savvy? Is trust in functional savvy a pre-requisite for trust in social savvy? Which individuals and contextual factors are more likely to influence this trust? In order to answer these questions, we have carried an experimental study with 56 participants and an iCub robot. Trust in the robot has been considered as a main indicator of acceptance in situations of perceptual and socio-cognitive uncertainty and was measured by participants’ conformation to answers given by iCub. Learning by robotics was investigated under the issue of robot’s impact on learning. The research questions were the following: to what extent the combined RBI & IBSE frame has a positive impact on cognitive, affective, social and meta-cognitive dimensions of learning? Does this combined educational frame improve both domain-specific and non-domain specific knowledge and competences of students? In order to answer these questions, we have carried a one-year RBI & IBSE experimental study in the frame of RObeeZ, a research made through the FP7 EU project Pri-Sci-Net. The longitudinal experiments involved 26 pupils and 2 teachers from a suburb parisian primary school
14

Wynen, Daan. "Une représentation archétypale de style artistique : résumer et manipuler des stylesartistiques d'une façon interprétable." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions les représentations utilisées pour décrire et manipuler le style artistique d'œuvres d'art. Dans la littérature sur le transfert de style, différentes représentations ont été proposées, mais ces dernières années, les représentations de style artistique qui constituent le paradigme dominant en vision par ordinateur ont été celles apprises par des réseaux de neurones profonds et qui sont entraînés avec des images naturelles. Nous nous appuyons sur ces représentations avec le double objectif de résumer les styles artistiques présents dans de grandes collections d’œuvres d’art numérisées, ainsi que la manipulation des styles d’images naturelles ou artistiques.Pour cela, nous proposons une représentation concise et intuitive basée sur l’analyse archétypale, une méthode d’apprentissage classique non supervisée avec des propriétés qui la rendent particulièrement adaptée à cette tâche. Nousmontrons comment cette représentation archétypale du style peut être utilisée pour découvrir et décrire, de manière interprétable, quels styles sont présents dans une grande collection. Cela permet d’explorer les styles présents dansune collection sous différents angles ; différentes manières de visualiser les résultats d’analyse permettent de poser différentes questions. Ceux-ci peuvent concerner un style qui a été identifié dans la collection des œuvres d’art, sur le style d’une œuvre d’art particulière, ou plus largement sur la relation entre les styles identifiés.Nous appliquons notre analyse à une collection d’œuvres d’art issues de WikiArt, un effort de collecte en ligne d’arts visuels poursuivi par des bénévoles. Cet ensemble de données comprend également des métadonnées telles que l’identité des artistes, le genre et le style des œuvres d’art. Nous utilisons ces métadonnées pour une analyse plus approfondie de la représentation de style archétypale le long des lignes biographiques des artistes. et avec une analyse des relations au sein de groupes d’artistes
In this thesis we study the representations used to describe and manipulate artistic style of visual arts.In the neural style transfer literature and related strains of research, different representations have been proposed, but in recent years the by far dominant representations of artistic style in the computer vision community have been those learned by deep neural networks, trained on natural images.We build on these representations with the dual goal of summarizing the artistic styles present in large collections of digitized artworks, as well as manipulating the styles of images both natural and artistic.To this end, we propose a concise and intuitive representation based on archetypal analysis, a classic unsupervised learning method with properties that make it especially suitable for the task. We demonstrate how this archetypal representation of style can be used to discover and describe, in an interpretable way, which styles are present in a large collection.This enables the exploration of styles present in a collection from different angles; different ways of visualizing the information allow for different questions to be asked.These can be about a style that was identified across artworks, about the style of a particular artwork, or more broadly about how the styles that were identified relate to one another.We apply our analysis to a collection of artworks obtained from WikiArt, an online collection effort of visual arts driven by volunteers. This dataset also includes metadata such as artist identies, genre, and style of the artworks. We use this metadata for further analysis of the archetypal style representation along biographic lines of artists and with an eye on the relationships within groups of artists
15

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
16

Mountassir, Mahjoub El. "Surveillance d'intégrité des structures par apprentissage statistique : application aux structures tubulaires." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les approches de surveillance de l’intégrité des structures ont été proposées pour permettre un contrôle continu de l’état des structures en intégrant à celle-ci des capteurs intelligents. En effet, ce contrôle continu doit être effectué pour s’assurer du bon fonctionnement de celles-ci car la présence d’un défaut dans la structure peut aboutir à un accident catastrophique. Cependant, la variation des conditions environnementales et opérationnelles (CEO) dans lesquelles la structure évolue, impacte sévèrement les signaux collectés ce qui induit parfois une mauvaise interprétation de la présence du défaut dans la structure. Dans ce travail de thèse, l’application des méthodes d’apprentissage statistiques classiques a été envisagée dans le cas des structures tubulaires. Ici, les effets des paramètres de mesures sur la robustesse de ces méthodes ont été investiguées. Ensuite, deux approches ont été proposées pour remédier aux effets des CEO. La première approche suppose que la base de données des signaux de référence est suffisamment riche en variation des CEO. Dans ce cas, une estimation parcimonieuse du signal mesuré est calculée. Puis, l’erreur d’estimation est utilisée comme indicateur de défaut. Tandis que la deuxième approche est utilisée dans le cas où la base de données des signaux des références contient une variation limitée des CEO mais on suppose que celles-ci varient lentement. Dans ce cas, une mise à jour du modèle de l’état sain est effectuée en appliquant l’analyse en composante principale (PCA) par fenêtre mobile. Dans les deux approches, la localisation du défaut a été assurée en utilisant une fenêtre glissante sur le signal provenant de l’état endommagé
To ensure better working conditions of civil and engineering structures, inspections must be made on a regular basis. However, these inspections could be labor-intensive and cost-consuming. In this context, structural health monitoring (SHM) systems using permanently attached transducers were proposed to ensure continuous damage diagnostic of these structures. In SHM, damage detection is generally based on comparison between the healthy state signals and the current signals. Nevertheless, the environmental and operational conditions will have an effect on the healthy state signals. If these effects are not taken into account they would result in false indication of damage (false alarm). In this thesis, classical machine learning methods used for damage detection have been applied in the case of pipelines. The effects of some measurements parameters on the robustness of these methods have been investigated. Afterthat, two approaches were proposed for damage diagnostic depending on the database of reference signals. If this database contains large variation of these EOCs, a sparse estimation of the current signal is calculated. Then, the estimation error is used as an indication of the presence of damage. Otherwise, if this database is acquired at limited range of EOCs, moving window PCA can be applied to update the model of the healthy state provided that the EOCs show slow and continuous variation. In both approaches, damage localization was ensured using a sliding window over the damaged pipe signal
17

Ji, Hyungsuk. "Étude d'un modèle computationnel pour la représentation du sens des mots par intégration des relations de contexte." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00008384.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous présentons une approche théorique du concept et un modèle linguistico-informatique. Cette théorie, non définitionnelle, est fondée sur une représentation gaussienne du concept. Nous introduisons le terme contexonyme, une formalisation de la relation de contexte entre les mots. Cette notion lie la théorie du concept au modèle informatique. Basé sur ces deux notions, notre modèle informatique apprend des contexonymes de manière automatique à partir de corpus de taille importante non annotés. Pour chaque mot donné, le modèle propose la liste de ses contexonymes et les organise par une méthode de classification hiérarchique. Les contexonymes ainsi obtenus reflètent des connaissances encyclopédiques ainsi que diverses caractéristiques langagières comme l'usage des mots ou encore les fines différences sémantiques entre synonymes. Les résultats sur des tests montrent que le modèle peut être utilisé pour des tâches de TAL ainsi que comme ressource lexicale dynamique.
18

Zribi, Abir. "Apprentissage par noyaux multiples : application à la classification automatique des images biomédicales microscopiques." Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le contexte de diagnostic assisté par ordinateur pour la localisation subcellulaire des protéines dans les images microscopiques. L'objectif est la conception et le développement d'un système de classification automatique permettant d'identifier le compartiment cellulaire dans lequel une protéine d'intérêt exerce son activité biologique. Afin de surmonter les difficultés rencontrées pour discerner les compartiments cellulaires présents dans les images microscopiques, les systèmes décrits dans la littérature proposent d'extraire plusieurs descripteurs associés à une combinaison de classifieurs. Dans cette thèse, nous proposons un schéma de classification différent répondant mieux aux besoins de généricité et de flexibilité pour traiter différentes bases d'images.Dans le but de fournir une caractérisation riche des images microscopiques, nous proposons un nouveau système de représentation permettant d'englober de multiples descripteurs visuels identifiés dans les différentes approches d'extraction de caractéristiques : locale, fréquentielle, globale et par région. Nous formulons ensuite le problème de fusion et de sélection des caractéristiques sous forme d'un problème de sélection de noyaux. Basé sur l'apprentissage de noyaux multiples (MKL), les tâches de sélection et de fusion de caractéristiques sont considérées simultanément. Les expériences effectuées montrent que la plateforme de classification proposée est à la fois plus simple, plus générique et souvent plus performante que les autres approches de la littérature. Dans le but d'approfondir notre étude sur l'apprentissage de noyaux multiples, nous définissons un nouveau formalisme d'apprentissage MKL réalisé en deux étapes. Cette contribution consiste à proposer trois termes régularisant liés à la résolution du problème d'apprentissage des poids associés à une combinaison linéaire de noyaux, problème reformulé en un problème de classification à vaste marge dans l'espace des couples. Le premier terme régularisant proposé assure une sélection parcimonieuse des noyaux. Les deux autres termes ont été conçus afin de tenir compte de la similarité entre les noyaux via une métrique basée sur la corrélation. Les différentes expérimentations réalisées montrent que le formalisme proposé permet d'obtenir des résultats de même ordre que les méthodes de référence, mais offrant l'avantage d'utiliser moins de fonctions noyaux
This thesis arises in the context of computer aided analysis for subcellular protein localization in microscopic images. The aim is the establishment of an automatic classification system allowing to identify the cellular compartment in which a protein of interest exerts its biological activity. In order to overcome the difficulties in attempting to discern the cellular compartments in microscopic images, the existing state-of-art systems use several descriptors to train an ensemble of classifiers. In this thesis, we propose a different classification scheme wich better cope with the requirement of genericity and flexibility to treat various image datasets. Aiming to provide an efficient image characterization of microscopic images, a new feature system combining local, frequency-domain, global, and region-based features is proposed. Then, we formulate the problem of heterogeneous feature fusion as a kernel selection problem. Using multiple kernel learning, the problems of optimal feature sets selection and classifier training are simultaneously resolved. The proposed combination scheme leads to a simple and a generic framework capable of providing a high performance for microscopy image classification. Extensive experiments were carried out using widely-used and best known datasets. When compared with the state-of-the-art systems, our framework is more generic and outperforms other classification systems. To further expand our study on multiple kernel learning, we introduce a new formalism for learning with multiple kernels performed in two steps. This contribution consists in proposing three regularized terms with in the minimization of kernels weights problem, formulated as a classification problem using Separators with Vast Margin on the space of pairs of data. The first term ensures that kernels selection leads to a sparse representation. While the second and the third terms introduce the concept of kernels similarity by using a correlation measure. Experiments on various biomedical image datasets show a promising performance of our method compared to states of art methods
19

Smaïl-Tabbone, Malika. "Raisonnement à base de cas pour une recherche évolutive d'information : prototype cabri-n : vers la définition d'un cadre d'acquisition de connaissances." Nancy 1, 1994. http://www.theses.fr/1994NAN10409.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche d'information (RI) a pour objet d'aider des utilisateurs à définir et réaliser des accès dans des bases de documents (journaux, images, articles, partitions musicales, livres) l'objectif de cette thèse est de passer d'une RI classique à une RI évolutive où le système de recherche d'information (SRI) acquiert un rôle de récepteur actif grâce à des capacités d'apprentissage à long terme par acquisition incrémentale de plusieurs types de connaissances: stratégiques, épisodiques ou relatives aux documents de la base. Afin de traiter la stratégie de recherche comme objet explicite d'étude, de manipulation et surtout d'apprentissage, nous avons défini un modèle paramètre de processus de recherche d'information. Dans le but de concevoir des SRI capables d'adaptation et d'évolution dans des contextes réels d'exploitation, nous avons spécifié la combinaison (appelée cabri-n) du raisonnement à base de cas avec la recherche interactive d'information. Les fondements cognitifs du raisonnement à base de cas (analogie et remémoration) confèrent à cabri-n une plausibilité cognitive importante. Les résultats d'épisodes antérieurs de recherche d'information, quel que soit leur type (échec, succès, mitigé), sont exploités afin d'améliorer les performances du système en même temps que la satisfaction des utilisateurs, par l'intermédiaire d'une mémoire collective de sessions. Pour chacun de ces types, un mode d'adaptation contextuelle d'une session antérieure à la session courante a été défini. Nous proposons une mesure d'évaluation des performances d'une session interactive de recherche, des critères de comparaison de sessions de recherche (analogie structurelle, analogie thématique) ainsi qu'un procédé de classement des sessions candidates. Nous réfléchissons, sur un plan plus fondamental, à l'acquisition de connaissances en elle-même ; nous choisissons un cadre conceptuel de modélisation pour celle-ci (modèle kads) et étendons cabri-n pour couvrir l'acquisition des autres types de connaissances en effectuant des actes de synthèse sur la mémoire de sessions. Ces propositions ont été en grande partie implantées dans un prototype développé dans un environnement orienté objet et sont en cours d'évaluation sur une base d'images, selon un plan d'expérimentation et d'évaluation que nous proposons
20

Deshpande, Hrishikesh. "Dictionary learning for pattern classification in medical imaging." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des signaux naturels peuvent être représentés par une combinaison linéaire de quelques atomes dans un dictionnaire. Ces représentations parcimonieuses et les méthodes d'apprentissage de dictionnaires (AD) ont suscité un vif intérêt au cours des dernières années. Bien que les méthodes d'AD classiques soient efficaces dans des applications telles que le débruitage d'images, plusieurs méthodes d'AD discriminatifs ont été proposées pour obtenir des dictionnaires mieux adaptés à la classification. Dans ce travail, nous avons montré que la taille des dictionnaires de chaque classe est un facteur crucial dans les applications de reconnaissance des formes lorsqu'il existe des différences de variabilité entre les classes, à la fois dans le cas des dictionnaires classiques et des dictionnaires discriminatifs. Nous avons validé la proposition d'utiliser différentes tailles de dictionnaires, dans une application de vision par ordinateur, la détection des lèvres dans des images de visages, ainsi que par une application médicale plus complexe, la classification des lésions de scléroses en plaques (SEP) dans des images IRM multimodales. Les dictionnaires spécifiques à chaque classe sont appris pour les lésions et les tissus cérébraux sains. La taille du dictionnaire pour chaque classe est adaptée en fonction de la complexité des données. L'algorithme est validé à l'aide de 52 séquences IRM multimodales de 13 patients atteints de SEP
Most natural signals can be approximated by a linear combination of a few atoms in a dictionary. Such sparse representations of signals and dictionary learning (DL) methods have received a special attention over the past few years. While standard DL approaches are effective in applications such as image denoising or compression, several discriminative DL methods have been proposed to achieve better image classification. In this thesis, we have shown that the dictionary size for each class is an important factor in the pattern recognition applications where there exist variability difference between classes, in the case of both the standard and discriminative DL methods. We validated the proposition of using different dictionary size based on complexity of the class data in a computer vision application such as lips detection in face images, followed by more complex medical imaging application such as classification of multiple sclerosis (MS) lesions using MR images. The class specific dictionaries are learned for the lesions and individual healthy brain tissues, and the size of the dictionary for each class is adapted according to the complexity of the underlying data. The algorithm is validated using 52 multi-sequence MR images acquired from 13 MS patients
21

Nguyen, Thanh Tuan. "Représentations efficaces des textures dynamiques." Electronic Thesis or Diss., Toulon, 2020. https://bu.univ-tln.fr/files/userfiles/file/intranet/travuniv/theses/sciences/2020/2020_Nguyen_ThanhTuan.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La représentation des textures dynamiques (TD), considérée comme une séquence de textures en mouvement, est un défi en analyse des vidéos dans des applications diverses de la vision par ordinateur. Cela est en partie causé par la désorientation des mouvements, les impacts négatifs des problèmes bien connus dans la capture des caractéristiques turbulentes: bruit, changements d'environnement, illumination, transformations de similarité, mise en échelles, etc. Dans le cadre de cette thèse, nous introduisons des solutions significatives afin de traiter les problèmes ci-dessus. Par conséquent, trois approches principales suivantes sont proposées pour le codage efficace des TDs : i) à partir de trajectoires denses extraites d'une vidéo donnée; ii) basé sur des réponses robustes extraites par des modèles de moment; iii) basé sur des résultats filtrés qui sont calculés par des variantes de noyaux de filtrage gaussien. En parallèle, nous proposons également plusieurs opérateurs discriminants pour capturer les caractéristiques spatio-temporelles des codages de TD ci-dessus. Pour une représentation TD basée sur des trajectoires denses, nous extrayons d'abord des trajectoires denses à partir d'une vidéo donnée. Les points de mouvement le long des trajectoires sont ensuite codés par notre opérateur xLVP, une extension des modèles vectoriels locaux (LVP) dans un contexte de codage complémentaire, afin de capturer des caractéristiques directionnelles basées sur une trajectoire dense pour la représentation efficace de TD. Pour la description TD basée sur des modèles de moment, motivée par un modèle d'images de moment, nous proposons un nouveau modèle de volumes de moment basé sur des informations statistiques des régions de support sphériques centrées sur un voxel. Deux de ces modèles sont ensuite pris en compte dans l'analyse vidéo pour mettre en évidence des images/volumes de moment. Afin d'encoder les images basées sur le moment, nous nous adressons à l'opérateur CLSP, une variante des modèles binaires locaux terminés (CLBP). De plus, notre opérateur xLDP, une extension des modèles de dérivés locaux (LDP) dans un contexte de codage complémentaire, est introduit pour capturer les caractéristiques spatio-temporelles basés sur les volumes des moments. Pour la représentation DT basée sur les filtrages Gaussiens, nous étudierons de nombreux types de filtrages dans l'étape de prétraitement d'une vidéo pour mettre en évidence des caractéristiques robustes. Après cette étape, les sorties sont codées par des variantes de LBP pour construire les descripteurs de TD. Plus concrètement, nous exploitons les noyaux gaussiens et des variantes de gradients gaussiens d'ordre élevé pour le filtrage. En particulier, nous introduisons un nouveau noyau de filtrage (DoDG) en tenant compte de la différence des gradients gaussiens, qui permet de mettre en évidence des composants robustes filtrés par DoDG pour construire des descripteurs efficaces en maintenant une petite dimensionalité. Parallèlement aux filtrages gaussiens, certains novels opérateurs sont introduits pour répondre à différents contextes du codage TD local: CAIP, une adaptation de CLBP pour résoudre le problème proche de zéro causé par des caractéristiques bipolaires; LRP, basé sur un concept de cube carré de voisins locaux; CHILOP, une formulation généralisée de CLBP. Les résultats de reconnaissance TD ont validé que nos propositions fonctionnent de manière significative par rapport à l'état de l'art. Certaines d'entre elles ont des performances très proches des approches d'apprentissage profond. De plus, nos descripteurs qui ont une dimensionalité très petite par rapport à celle des méthodes d'apprentissage profond sont appréciées pour les applications mobiles
Representation of dynamic textures (DTs), well-known as a sequence of moving textures, is a challenge in video analysis for various computer vision applications. It is partly due to disorientation of motions, the negative impacts of the well-known issues on capturing turbulent features: noise, changes of environment, illumination, similarity transformations, etc. In this work, we introduce significant solutions in order to deal with above problems. Accordingly, three streams of those are proposed for encoding DTs: i) based on dense trajectories extracted from a given video; ii) based on robust responses extracted by moment models; iii) based on filtered outcomes which are computed by variants of Gaussian-filtering kernels. In parallel, we also propose several discriminative descriptors to capture spatio-temporal features for above DT encodings. For DT representation based on dense trajectories, we firstly extract dense trajectories from a given video. Motion points along the paths of dense trajectories are then encoded by our xLVP operator, an important extension of Local Vector Patterns (LVP) in a completed encoding context, in order to capture directional dense-trajectory-based features for DT representation.For DT description based on moment models, motivated by the moment-image model, we propose a novel model of moment volumes based on statistical information of spherical supporting regions centered at a voxel. Two these models are then taken into account video analysis to point out moment-based images/volumes. In order to encode the moment-based images, we address CLSP operator, a variant of completed local binary patterns (CLBP). In the meanwhile, our xLDP, an important extension of Local Derivative Patterns (LDP) in a completed encoding context, is introduced to capture spatio-temporal features of the moment-volume-based outcomes. For DT representation based on the Gaussian-based filterings, we will investigate many kinds of filterings as pre-processing analysis of a video to point out its filtered outcomes. After that, these outputs are encoded by discriminative operators to structure DT descriptors correspondingly. More concretely, we exploit the Gaussian-based kernel and variants of high-order Gaussian gradients for the filtering analysis. Particularly, we introduce a novel filtering kernel (DoDG) in consideration of the difference of Gaussian gradients, which allows to point out robust DoDG-filtered components to construct prominent DoDG-based descriptors in small dimension. In parallel to the Gaussian-based filterings, some novel operators will be introduced to meet different contexts of the local DT encoding: CAIP, an adaptation of CLBP to fix the close-to-zero problem caused by separately bipolar features; LRP, based on a concept of a square cube of local neighbors sampled at a center voxel; CHILOP, a generalized formulation of CLBP to adequately investigate local relationships of hierarchical supporting regions. Experiments for DT recognition have validated that our proposals significantly perform in comparison with state of the art. Some of which have performance being very close to deep-learning approaches, expected as one of appreciated solutions for mobile applications due to their simplicity in computation and their DT descriptors in a small number of bins
22

Castillo-Navetty, Oswaldo. "Csao : méthode pour la construction d'un système d'apprentissage opérationnel à partir d'une mémoire métier." Troyes, 2006. http://www.theses.fr/2006TROY0007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, la plupart des entreprises développent et appliquent des stratégies des connaissances, en réalisant une gestion, une innovation et une création de leurs connaissances. Dans les organisations cette connaissance est de plus en plus représentée sour la forme d’une mémoire d’entreprise. Mon intérêt particulier est centré sur un type de mémoire d’entreprise connu comme mémoire métier. Mon travail de thèse se base essentiellement sur l’appropriation des connaissances à partir d’une mémoire métier. Il s’agit de soutenir un employé novice dans l’intégration de connaissances expertes du domaine, des savoir-faire, afin qu’il puisse effectuer une tâche nécessaire à l’entreprise. L’objectif est d’utiliser les principes de l’ingénierie des connaissances, pour la capitalisation des connaissances métiers, et les méthodes de l’ingénierie pédagogique, pour le transfert de ces connaissances à l’apprenant. L’alliance de ces deux ingénieries permet de développer un système d’apprentissage opérationnel, pratique
Nowadays, most companies develop and apply strategies of knowledge management. In enterprises this knowledge is more and more seen in the form of “Corporate Memory”. My area of interest is centered around a kind of corporate memory known as “Professional Memory”. My thesis is based on knowledge appropriation taken from a professional memory. It involves supporting a novice employee by providing them with the expert knowledge of the domain, the “know how” so that he can perform tasks needed by the company. The goal is to use the principles of knowledge engineering, to transfer this knowledge to the employee. The alliance of these two approaches allows the development of a practical, performant, system of learning
23

Pierre, Denis. "Formulation et maintenance d'une théorie hypothétique par un agent apprenant." Montpellier 2, 1997. http://www.theses.fr/1997MON20082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous interessons a l'apprentissage a partir d'exemples et a la resolution de probleme dans un univers evolutif represente par une base de connaissances incomplete. Nous formalisons un cadre de representation de connaissances susceptible d'etre elabore et critique par des humains comme par des machines. Cette representation des connaissances est appelee theorie semi-empirique car cette forme de theorie n'est pas completement axiomatique. Nous donnons les elements d'une formalisation d'un systeme appele schema mental, modelisant l'augmentation de la connaissance durant le processus d'apprentissage, a partir des definitions generales d'un langage et d'un modele de gestion de croyances. Enfin, nous gerons l'aspect dynamique du processus d'acquisition de connaissances a travers des mecanismes de raisonnement, la production de preuves, et l'emergence d'un noyau stable de connaissances. Ce formalisme est applique a l'etude de l'evolution de zones geographiques d'apres plusieurs releves temporels.
24

Merckling, Astrid. "Unsupervised pretraining of state representations in a rewardless environment." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à étendre les capacités de l'apprentissage de représentation d'état (state representation learning, SRL) afin d'aider la mise à l'échelle des algorithmes d'apprentissage par renforcement profond (deep reinforcement learning, DRL) aux tâches de contrôle continu avec des observations sensorielles à haute dimension (en particulier des images). Le SRL permet d'améliorer les performances des algorithmes de DRL en leur transmettant de meilleures entrées que celles apprises à partir de zéro avec des stratégies de bout-en-bout. Plus précisément, cette thèse aborde le problème de l'estimation d'état à la manière d'un pré-entraînement profond non supervisé de représentations d'état sans récompense. Ces représentations doivent vérifier certaines propriétés pour permettre l'application correcte du bootstrapping et d'autres mécanismes de prises de décisions communs à l'apprentissage supervisé, comme être de faible dimension et garantir la cohérence locale et la topologie (ou connectivité) de l'environnement, ce que nous chercherons à réaliser à travers les modèles pré-entraînés avec les deux algorithmes de SRL proposés dans cette thèse
This thesis seeks to extend the capabilities of state representation learning (SRL) to help scale deep reinforcement learning (DRL) algorithms to continuous control tasks with high-dimensional sensory observations (such as images). SRL allows to improve the performance of DRL by providing it with better inputs than the input embeddings learned from scratch with end-to-end strategies. Specifically, this thesis addresses the problem of performing state estimation in the manner of deep unsupervised pretraining of state representations without reward. These representations must verify certain properties to allow for the correct application of bootstrapping and other decision making mechanisms common to supervised learning, such as being low-dimensional and guaranteeing the local consistency and topology (or connectivity) of the environment, which we will seek to achieve through the models pretrained with the two SRL algorithms proposed in this thesis
25

Mantilla, Jauregui Juan José. "Caractérisation de pathologies cardiaques en Imagerie par Résonance Magnétique par approches parcimonieuses." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S073/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette étude, nous abordons l'utilisation de la représentation parcimonieuse et l'apprentissage de dictionnaires pour l'aide au diagnostic dans le contexte de Maladies Cardiovasculaires. Spécifiquement, notre travail se concentre : 1) sur l'évaluation du mouvement des parois du Ventricule Gauche (VG) chez des patients souffrant d'Insuffisance Cardiaque (IC) ; 2) la détection de fibrose chez des patients présentant une Cardiomyopathie Hypertrophique (CMH). Ces types de pathologies sont étudiées par ailleurs en Imagerie par Résonance Magnétique Cardiaque (IRMC).Dans le contexte de l'IC notre contribution porte sur l'évaluation de mouvement du VG dans des séquences cine-IRMC. Nous proposons dans un premier temps, une méthode d'extraction de caractéristiques qui exploite les informations partielles obtenues à partir de toutes les phases cardiaques temporelles et des segments anatomiques, dans une représentation spatio-temporelle en cine-IRM petit axe (SAX). Les représentations proposées exploitent les informations du mouvement des parois du VG sans avoir recours à la segmentation et disposent des informations discriminatoires qui pourraient contribuer à la détection et à la caractérisation de l'asynchronisme cardiaque. L'extraction d'images spatio-temporelles a été proposée permettant la construction de trois nouveaux types de représentations : 1) profils spatio-temporels diamétraux qui montrent l'évolution temporelle de l’épicarde et de l'endocarde en même temps dans deux segments anatomiques opposés du VG, 2) profils spatio-temporels radiaux où le mouvement pariétal est observé pour chaque segment de la cavité du VG et 3) courbes de signal temps-intensité directement des profils spatio-temporels radiaux dans chaque segment anatomique. Des paramètres différents sont alors définis de ces courbes qui reflètent les informations dynamiques de la contraction du VG. Deuxièmement, nous proposons l'utilisation de ces caractéristiques comme des atomes d'entrée dans l'apprentissage de dictionnaires discriminatoires pour classifier le mouvement régional du VG dans les cas normaux ou anormaux. Nous avons proposé une évaluation globale en utilisant le statut global du sujet : Normal/Pathologique, comme l'étiquette de référence des profils spatio-temporels et une évaluation locale en utilisant les informations de déformation locales fournies par l'analyse des images échographiques de référence en clinique (2D-STE). Dans le contexte de la CMH, nous abordons le problème de détection de la fibrose en LGE-IRM-SAX en utilisant une approche de partitionnement de donnés et d'apprentissage de dictionnaires. Dans ce cadre, les caractéristiques extraites d'images de LGE-SAX sont prises comme des atomes d'entrée pour former un classifieur basé sur les codes parcimonieux obtenus avec une approche d'apprentissage de dictionnaires. Une étape de post-traitement permet la délimitation du myocarde et la localisation spatiale de la fibrose par segment anatomique
This work concerns the use of sparse representation and Dictionary Learning (DL) in order to get insights about the diseased heart in the context of Cardiovascular Diseases (CVDs). Specifically, this work focuses on 1) assessment of Left Ventricle (LV) wall motion in patients with heart failure and 2) fibrosis detection in patients with hypertrophic cardiomyopathy (HCM). In the context of heart failure (HF) patients, the work focuses on LV wall motion analysis in cardiac cine-MRI. The first contribution in this topic is a feature extraction method that exploits the partial information obtained from all temporal cardiac phases and anatomical segments in a spatio-temporal representation from sequences cine-MRI in short-axis view. These features correspond to spatio-temporal profiles in different anatomical segments of the LV. The proposed representations exploit information of the LV wall motion without segmentation needs. Three representations are proposed : 1) diametrical spatio-temporal profiles where radial motions of LV’s walls are observed at the same time in opposite anatomical segments 2) radial spatiotemporal profiles where motion of LV’s walls is observed for each segment of the LV cavity and 3) quantitative parameters extracted from the radial spatio-temporal profiles. A second contribution involves the use of these features as input atoms in the training of discriminative dictionaries to classify normal or abnormal regional LV motion. We propose two levels of evaluation, a first one where the global status of the subject (normal/pathologic) is used as ground truth to label the proposed spatio-temporal representations, and a second one where local strain information obtained from 2D Speckle Tracking Echocardiography (STE), is taken as ground truth to label the proposed features, where a profile is classified as normal or abnormal (akinetic or hypokinetic cases). In the context of Hypertrophic cardiomyopathy (HCM), we address the problem of fibrosis detection in Late Gadolinium Enhanced LGE-Short axis (SAX) images by using a sparse-based clustering approach and DL. In this framework, random image patches are taken as input atoms in order to train a classifier based on the sparse coefficients obtained with a DL approach based on kernels. For a new test LG-SAX image, the label of each pixel is predicted by using the trained classifier allowing the detection of fibrosis. A subsequent postprocessing step allows the spatial localization of fibrosis that is represented according to the American Heart Association (AHA) 17-segment model and a quantification of fibrosis in the LV myocardium
26

Solomonidou, Christine. "Comment se représenter les substances et leurs interactions ? : étude chez de jeunes élèves du collège." Paris 7, 1991. http://www.theses.fr/1991PA077298.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Zhu, Ruifeng. "Contribution to graph-based manifold learning with application to image categorization." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les algorithmes d'apprentissage de représentation de données à base de graphes sont considérés comme une technique puissante pour l'extraction de caractéristiques et la réduction de dimensionnalité dans les domaines de la reconnaissance de formes, la vision par ordinateur et l'apprentissage automatique. Ces algorithmes utilisent les informations contenues dans les similitudes d’échantillons (par paire) et la matrice du graphe pondéré pour révéler la structure géométrique intrinsèque de données. Ces algorithmes sont capables de récupérer une structure de faible dimension à partir de données de dimension élevée. Le travail de cette thèse consiste à développer des techniques d'apprentissage de représentation de données à base de graphes, appliquées à la reconnaissance de formes. Plus précisément, les expérimentations sont conduites sur des bases de données correspondant à plusieurs catégories d'images publiques telles que les bases de visages, les bases de scènes intérieures et extérieures, les bases d’objets, etc. Plusieurs approches sont proposées dans cette thèse : 1) Une nouvelle méthode non linéaire appelée inclusion discriminante flexible basée sur un graphe avec sélection de caractéristiques est proposée. Nous recherchons une représentation non linéaire et linéaire des données pouvant convenir à des tâches d'apprentissage génériques telles que la classification et le regroupement. En outre, un résultat secondaire de la méthode proposée est la sélection de caractéristiques originales, où la matrice de transformation linéaire estimée peut-être utilisée pour le classement et la sélection de caractéristiques. 2) Pour l'obtention d'une représentation non linéaire flexible et inductive des données, nous développons et étudions des stratégies et des algorithmes qui estiment simultanément la représentation de données désirée et une pondération explicite de caractéristiques. Le critère proposé estime explicitement les poids des caractéristiques ainsi que les données projetées et la transformation linéaire de sorte que la régularité des données et de grandes marges soient obtenues dans l'espace de projection. De plus, nous introduisons une variante à base de noyaux du modèle afin d'obtenir une représentation de données non linéaire inductive proche d'un véritable sous-espace non linéaire pour une bonne approximation des données. 3) Un apprentissage profond flexible qui peut surmonter les limites et les faiblesses des modèles d'apprentissage à une seule couche est introduit. Nous appelons cette stratégie une représentation basée sur un graphe élastique avec une architecture profonde qui explore en profondeur les informations structurelles des données. Le cadre résultant peut être utilisé pour les environnements semi-supervisés et supervisés. De plus, les problèmes d'optimisation qui en résultent peuvent être résolus efficacement. 4) Nous proposons une méthode semi-supervisée pour la représentation de données qui exploite la notion de convolution avec graphes. Cette méthode offre une nouvelle perspective de recherche sur la représentation de données non linéaires et établit un lien avec le traitement du signal sur les méthodes à base de graphes. La méthode proposée utilise et exploite les graphes de deux manières. Tout d'abord, il déploie une régularité des données sur les graphes. Deuxièmement, son modèle de régression est construit sur l'utilisation conjointe des données et de leur graphe en ce sens que le modèle de régression fonctionne avec des données convolutées. Ces dernières sont obtenues par propagation de caractéristiques
Graph-based Manifold Learning algorithms are regarded as a powerful technique for feature extraction and dimensionality reduction in Pattern Recogniton, Computer Vision and Machine Learning fields. These algorithms utilize sample information contained in the item-item similarity and weighted matrix to reveal the intrinstic geometric structure of manifold. It exhibits the low dimensional structure in the high dimensional data. This motivates me to develop Graph-based Manifold Learning techniques on Pattern Recognition, specially, application to image categorization. The experimental datasets of thesis correspond to several categories of public image datasets such as face datasets, indoor and outdoor scene datasets, objects datasets and so on. Several approaches are proposed in this thesis: 1) A novel nonlinear method called Flexible Discriminant graph-based Embedding with feature selection (FDEFS) is proposed. We seek a non-linear and a linear representation of the data that can be suitable for generic learning tasks such as classification and clustering. Besides, a byproduct of the proposed embedding framework is the feature selection of the original features, where the estimated linear transformation matrix can be used for feature ranking and selection. 2) We investigate strategies and related algorithms to develop a joint graph-based embedding and an explicit feature weighting for getting a flexible and inductive nonlinear data representation on manifolds. The proposed criterion explicitly estimates the feature weights together with the projected data and the linear transformation such that data smoothness and large margins are achieved in the projection space. Moreover, this chapter introduces a kernel variant of the model in order to get an inductive nonlinear embedding that is close to a real nonlinear subspace for a good approximation of the embedded data. 3) We propose the graph convolution based semi-supervised Embedding (GCSE). It provides a new perspective to non-linear data embedding research, and makes a link to signal processing on graph methods. The proposed method utilizes and exploits graphs in two ways. First, it deploys data smoothness over graphs. Second, its regression model is built on the joint use of the data and their graph in the sense that the regression model works with convolved data. The convolved data are obtained by feature propagation. 4) A flexible deep learning that can overcome the limitations and weaknesses of single-layer learning models is introduced. We call this strategy an Elastic graph-based embedding with deep architecture which deeply explores the structural information of the data. The resulting framework can be used for semi-supervised and supervised settings. Besides, the resulting optimization problems can be solved efficiently
28

Qiu, Mingming. "Designing smart home services using machine learning and knowledge-based approaches." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intelligence de la maison intelligente est réalisée en créant divers services. Chaque service tente d'ajuster un état monitoré en contrôlant les actionneurs associés après avoir pris en compte les états de l'environnement détectés par les capteurs. Cependant, la conception de la logique des services déployés dans une maison intelligente se heurte à des limitations soit d'adaptabilité dynamique (règles prédéfinies) soit d'explicabilité (techniques d'apprentissage). Quatre propositions s'inscrivant dans une approche hybride combinant des règles prédéfinies et des techniques d'apprentissage visent à lever ces limitations. La première proposition consiste à utiliser l'apprentissage renforcé pour créer un service dynamique. Le déploiement de ce service unique comprend deux phases : le pré-entraînement dans la simulation et l'entraînement continu dans le monde réel. Notre étude se concentre uniquement sur la partie simulation. En étendant la première proposition, la deuxième proposition propose plusieurs architectures pour créer plusieurs services dynamiques et sans conflit. Cependant, les services dirigés par les données ne sont pas explicables. Par conséquent, la troisième proposition vise à extraire des services explicables basés sur la connaissance à partir de services dynamiques dirigés par les données. La quatrième proposition tente de combiner les deuxième et troisième propositions pour créer des services dynamiques et explicables. Ces propositions sont évaluées dans un environnement simulé sur des services de contrôle de la température, de l'intensité lumineuse et de la qualité de l'air adaptés aux activités de l'habitant. Elles peuvent être étendues selon plusieurs perspectives, telles que la co-simulation de phénomènes physiques, l'adaptation dynamique à différents profils d'habitant, et l'efficacité énergétique des services déployés
The intelligence of a smart home is realized by creating various services. Eachservice tries to adjust one monitored state by controlling related actuators after consideringenvironment states detected by sensors. However, the design of the logic of the services deployedin a smart home faces limitations of either dynamic adaptability (predefined rules) orexplicability (learning techniques). Four proposals that are parts of a hybrid approach combiningpredefined rules and learning techniques aim at mitigating these limitations.The first proposal is to use reinforcement learning to create a dynamic service. The deploymentof this single service includes two phases : pretraining in the simulation and continuous trainingin the real world. Our study only focuses on the simulation part. Extending the first proposal,the second proposal proposes several architectures to create multiple dynamic and conflictfreeservices. However, the created data-driven services are not explicable. Therefore, the thirdproposal aims to extract explicable knowledgebased services from dynamic data-driven services.The fourth proposal attempts to combine the second and third proposals to create dynamicand explicable services. These proposals are evaluated in a simulated environment ontemperature control, light intensity, and air quality services adapted to the activities of the inhabitant.They can be extended according to several perspectives, such as the co-simulation ofphysical phenomena, the dynamic adaptation to various inhabitant profiles, and the energy efficiencyof the deployed services
29

Ollmann, Michaël. "De la représentation des risques professionnels aux pratiques de prévention : quelle dynamique pour quelle formation : le cas du risque routier et des troubles musculosquelettiques en question." Vandoeuvre-les-Nancy, INPL, 2005. http://docnum.univ-lorraine.fr/public/INPL/2005_OLLMAN_M_1.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nos sociétés modernes sont traversées par de nombreux bouleversements notamment culturels, techniques et scientifiques. Or parallèlement aux progrès qu'ils génèrent, ces bouleversements engendrent également des effets indésirables : les risques. Le champ des risques professionnels n'est pas épargné par ce phénomène. On constate actuellement l'émergence de risques qui semblent ne plus correspondre exactement aux critères habituels des risques professionnels. Quelles représentations les préventeurs ont-ils des risques professionnels et de ces risques en particulier ? Quelles sont les connaissances et les compétences nécessaires à leur prévention ? Quelle formation proposer aux préventeurs ? Pour tenter d'apporter des éléments de réponse à ces questions, nous nous sommes intéressés à deux exemples de risque qui nous semblent particulièrement représentatifs : le risque routier et le risque TMS. Pour cela, nous avons mené des entretiens semi-directifs auprès de préventeurs CRAM et de préventeurs d'entreprise ayant été confrontés à l'un ou l'autre risque. Les données recueillies nous ont permis de mieux appréhender la dynamique des représentations, la nature des pratiques de préventions mises en œuvre ainsi que les processus d'apprentissage et de formation des préventeurs. Sur la base des principaux résultats mis en évidence, nous formulons des préconisations visant à adapter la formation des préventeurs aux spécificités de ces risques
Many cultural, technical and scientific upheavals are going through our modern societies. However, parallely to the progress they generate, these upheavals also create undesirable effects which we name risks. The domain of risks on the places of work is not spared by this phenomenon and we are presently noticing the emergence of risks that do not exactly correspond to usual criteria of risks on these places. We may ask ourselves what sort of representation of these risks prevention actors have? What sort of knowledge and competences are necessary to these prevention? What sort of training can we propose to prevention actors? In order to give appropriate answers to these questions, we have been interested in two risks: the risks on roads and the risk on musculoskeletal disorders. In order to achieve our goal we carried out a series of semi-directive interviews next to the “CRAM” prevention actors and the actors of the prevention inside firms who have been confronted with these risks. Thanks to this study, we can thus understand the dynamic of representations, the nature of prevention practices and the learning and training mode process of the prevention actors. From these results, we make recommendations to adapt the training of the prevention actors to the peculiar characteristics of these risks
30

Nguyen, Nhu Van. "Représentations visuelles de concepts textuels pour la recherche et l'annotation interactives d'images." Phd thesis, Université de La Rochelle, 2011. http://tel.archives-ouvertes.fr/tel-00730707.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En recherche d'images aujourd'hui, nous manipulons souvent de grands volumes d'images, qui peuvent varier ou même arriver en continu. Dans une base d'images, on se retrouve ainsi avec certaines images anciennes et d'autres nouvelles, les premières déjà indexées et possiblement annotées et les secondes en attente d'indexation ou d'annotation. Comme la base n'est pas annotée uniformément, cela rend l'accès difficile par le biais de requêtes textuelles. Nous présentons dans ce travail différentes techniques pour interagir, naviguer et rechercher dans ce type de bases d'images. Premièrement, un modèle d'interaction à court terme est utilisé pour améliorer la précision du système. Deuxièmement, en se basant sur un modèle d'interaction à long terme, nous proposons d'associer mots textuels et caractéristiques visuelles pour la recherche d'images par le texte, par le contenu visuel, ou mixte texte/visuel. Ce modèle de recherche d'images permet de raffiner itérativement l'annotation et la connaissance des images. Nous identifions quatre contributions dans ce travail. La première contribution est un système de recherche multimodale d'images qui intègre différentes sources de données, comme le contenu de l'image et le texte. Ce système permet l'interrogation par l'image, l'interrogation par mot-clé ou encore l'utilisation de requêtes hybrides. La deuxième contribution est une nouvelle technique pour le retour de pertinence combinant deux techniques classiques utilisées largement dans la recherche d'information~: le mouvement du point de requête et l'extension de requêtes. En profitant des images non pertinentes et des avantages de ces deux techniques classiques, notre méthode donne de très bons résultats pour une recherche interactive d'images efficace. La troisième contribution est un modèle nommé "Sacs de KVR" (Keyword Visual Representation) créant des liens entre des concepts sémantiques et des représentations visuelles, en appui sur le modèle de Sac de Mots. Grâce à une stratégie d'apprentissage incrémental, ce modèle fournit l'association entre concepts sémantiques et caractéristiques visuelles, ce qui contribue à améliorer la précision de l'annotation sur l'image et la performance de recherche. La quatrième contribution est un mécanisme de construction incrémentale des connaissances à partir de zéro. Nous ne séparons pas les phases d'annotation et de recherche, et l'utilisateur peut ainsi faire des requêtes dès la mise en route du système, tout en laissant le système apprendre au fur et à mesure de son utilisation. Les contributions ci-dessus sont complétées par une interface permettant la visualisation et l'interrogation mixte textuelle/visuelle. Même si pour l'instant deux types d'informations seulement sont utilisées, soit le texte et le contenu visuel, la généricité du modèle proposé permet son extension vers d'autres types d'informations externes à l'image, comme la localisation (GPS) et le temps.
31

Dang, Hong-Phuong. "Approches bayésiennes non paramétriques et apprentissage de dictionnaire pour les problèmes inverses en traitement d'image." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'apprentissage de dictionnaire pour la représentation parcimonieuse est bien connu dans le cadre de la résolution de problèmes inverses. Les méthodes d'optimisation et les approches paramétriques ont été particulièrement explorées. Ces méthodes rencontrent certaines limitations, notamment liées au choix de paramètres. En général, la taille de dictionnaire doit être fixée à l'avance et une connaissance des niveaux de bruit et éventuellement de parcimonie sont aussi nécessaires. Les contributions méthodologies de cette thèse concernent l'apprentissage conjoint du dictionnaire et de ces paramètres, notamment pour les problèmes inverses en traitement d'image. Nous étudions et proposons la méthode IBP-DL (Indien Buffet Process for Dictionary Learning) en utilisant une approche bayésienne non paramétrique. Une introduction sur les approches bayésiennes non paramétriques est présentée. Le processus de Dirichlet et son dérivé, le processus du restaurant chinois, ainsi que le processus Bêta et son dérivé, le processus du buffet indien, sont décrits. Le modèle proposé pour l'apprentissage de dictionnaire s'appuie sur un a priori de type Buffet Indien qui permet d'apprendre un dictionnaire de taille adaptative. Nous détaillons la méthode de Monte-Carlo proposée pour l'inférence. Le niveau de bruit et celui de la parcimonie sont aussi échantillonnés, de sorte qu'aucun réglage de paramètres n'est nécessaire en pratique. Des expériences numériques illustrent les performances de l'approche pour les problèmes du débruitage, de l'inpainting et de l'acquisition compressée. Les résultats sont comparés avec l'état de l'art.Le code source en Matlab et en C est mis à disposition
Dictionary learning for sparse representation has been widely advocated for solving inverse problems. Optimization methods and parametric approaches towards dictionary learning have been particularly explored. These methods meet some limitations, particularly related to the choice of parameters. In general, the dictionary size is fixed in advance, and sparsity or noise level may also be needed. In this thesis, we show how to perform jointly dictionary and parameter learning, with an emphasis on image processing. We propose and study the Indian Buffet Process for Dictionary Learning (IBP-DL) method, using a bayesian nonparametric approach.A primer on bayesian nonparametrics is first presented. Dirichlet and Beta processes and their respective derivatives, the Chinese restaurant and Indian Buffet processes are described. The proposed model for dictionary learning relies on an Indian Buffet prior, which permits to learn an adaptive size dictionary. The Monte-Carlo method for inference is detailed. Noise and sparsity levels are also inferred, so that in practice no parameter tuning is required. Numerical experiments illustrate the performances of the approach in different settings: image denoising, inpainting and compressed sensing. Results are compared with state-of-the art methods is made. Matlab and C sources are available for sake of reproducibility
32

Piette, Eric. "Une nouvelle approche au General Game Playing dirigée par les contraintes." Thesis, Artois, 2016. http://www.theses.fr/2016ARTO0401/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Développer un programme capable de jouer à n’importe quel jeu de stratégie, souvent désigné par le General Game Playing (GGP) constitue un des Graal de l’intelligence artificielle. Les compétitions GGP, où chaque jeu est représenté par un ensemble de règles logiques au travers du Game Description Language (GDL), ont conduit la recherche à confronter de nombreuses approches incluant les méthodes de type Monte Carlo, la construction automatique de fonctions d’évaluation, ou la programmation logique et ASP. De par cette thèse, nous proposons une nouvelle approche dirigée par les contraintes stochastiques.Dans un premier temps, nous nous concentrons sur l’élaboration d’une traduction de GDL en réseauxde contraintes stochastiques (SCSP) dans le but de fournir une représentation dense des jeux de stratégies et permettre la modélisation de stratégies.Par la suite, nous exploitons un fragment de SCSP au travers d’un algorithme dénommé MAC-UCBcombinant l’algorithme MAC (Maintaining Arc Consistency) utilisé pour résoudre chaque niveau duSCSP tour après tour, et à l’aide de UCB (Upper Confidence Bound) afin d’estimer l’utilité de chaquestratégie obtenue par le dernier niveau de chaque séquence. L’efficacité de cette nouvelle technique sur les autres approches GGP est confirmée par WoodStock, implémentant MAC-UCB, le leader actuel du tournoi continu de GGP.Finalement, dans une dernière partie, nous proposons une approche alternative à la détection de symétries dans les jeux stochastiques, inspirée de la programmation par contraintes. Nous montrons expérimentalement que cette approche couplée à MAC-UCB, surpasse les meilleures approches du domaine et a permis à WoodStock de devenir champion GGP 2016
The ability for a computer program to effectively play any strategic game, often referred to General Game Playing (GGP), is a key challenge in AI. The GGP competitions, where any game is represented according to a set of logical rules in the Game Description Language (GDL), have led researches to compare various approaches, including Monte Carlo methods, automatic constructions of evaluation functions, logic programming, and answer set programming through some general game players. In this thesis, we offer a new approach driven by stochastic constraints. We first focus on a translation process from GDL to stochastic constraint networks (SCSP) in order to provide compact representations of strategic games and to model strategies. In a second part, we exploit a fragment of SCSP through an algorithm called MAC-UCB by coupling the MAC (Maintaining Arc Consistency) algorithm, used to solve each stage of the SCSP in turn, together with the UCB (Upper Confidence Bound) policy for approximating the values of those strategies obtained by the last stage in the sequence. The efficiency of this technical on the others GGP approaches is confirmed by WoodStock, implementing MAC-UCB, the actual leader on the GGP Continuous Tournament. Finally, in the last part, we propose an alternative approach to symmetry detection in stochastic games, inspired from constraint programming techniques. We demonstrate experimentally that MAC-UCB, coupled with our constranit-based symmetry detection approach, significantly outperforms the best approaches and made WoodStock the GGP champion 2016
33

Risser-Maroix, Olivier. "Similarité visuelle et apprentissage de représentations." Electronic Thesis or Diss., Université Paris Cité, 2022. http://www.theses.fr/2022UNIP7327.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse CIFRE est de développer un moteur de recherche par image, basé sur la vision par ordinateur, afin d’assister les officiers des douanes. En effet, nous constatons, paradoxalement, une augmentation des menaces sécuritaires (terrorisme, trafic, etc.) couplée d’une diminution des effectifs en Douane. Les images de cargos acquises par des scanners à rayons X permettent déjà l’inspection d’un chargement sans nécessiter l’ouverture et la fouille complète d’un chargement contrôlé. En proposant automatiquement des images similaires, un tel moteur de recherche permettrait d’aider le douanier dans sa prise de décision face à des signatures visuelles de produits peu fréquents ou suspects. Grâce à l’essor des techniques modernes en intelligence artificielle (IA), notre époque subit de grands changements : l’IA transforme tous les secteurs de l’économie. Certains voient dans cet avènement de la "robotisation" la déshumanisation de la force de travail, voire son remplacement. Cependant, réduire l’utilisation de l’IA à la simple recherche de gains de productivité serait réducteur. En réalité, l’IA pourrait permettre d’augmenter la capacité de travail des humains et non à les concurrencer en vue de les remplacer. C’est dans ce contexte, la naissance de l’Intelligence Augmentée, que s’inscrit cette thèse. Ce manuscrit consacré à la question de la similarité visuelle se décompose en deux parties. Deux cas pratiques où la collaboration entre l’Homme et l’IA est bénéfique sont ainsi proposés. Dans la première partie, le problème de l’apprentissage de représentations pour la recherche d’images similaires fait encore l’objet d’investigations approfondies. Après avoir implémenté un premier système semblable à ceux proposés par l’état de l’art, l’une des principales limitations est pointée du doigt : le biais sémantique. En effet, les principales méthodes contemporaines utilisent des jeux de données d’images couplées de labels sémantiques uniquement. Les travaux de la littérature considèrent que deux images sont similaires si elles partagent le même label. Cette vision de la notion de similarité, pourtant fondamentale en IA, est réductrice. Elle sera donc remise en question à la lumière des travaux en psychologie cognitive afin de proposer une amélioration : la prise en compte de la similarité visuelle. Cette nouvelle définition permet une meilleure synergie entre le douanier et la machine. Ces travaux font l’objet de publications scientifiques et d’un brevet. Dans la seconde partie, après avoir identifié les composants clefs permettant d’améliorer les performances du système précédemment proposé, une approche mêlant recherche empirique et théorique est proposée. Ce second cas, l’intelligence augmentée est inspirée des développements récents en mathématiques et physique. D’abord appliquée à la com- préhension d’un hyperparamètre important (la température), puis à une tâche plus large (la classification), la méthode proposée permet de fournir une intuition sur l’importance et le rôle de facteurs corrélés à la variable étudiée (ex. hyperparamètre, score, etc.). La chaîne de traitement ainsi mise en place a démontré son efficacité en fournissant une solution hautement explicable et en adéquation avec des décennies de recherches en apprentissage automatique. Ces découvertes permettront l’amélioration des solutions précédemment développées
The objective of this CIFRE thesis is to develop an image search engine, based on computer vision, to assist customs officers. Indeed, we observe, paradoxically, an increase in security threats (terrorism, trafficking, etc.) coupled with a decrease in the number of customs officers. The images of cargoes acquired by X-ray scanners already allow the inspection of a load without requiring the opening and complete search of a controlled load. By automatically proposing similar images, such a search engine would help the customs officer in his decision making when faced with infrequent or suspicious visual signatures of products. Thanks to the development of modern artificial intelligence (AI) techniques, our era is undergoing great changes: AI is transforming all sectors of the economy. Some see this advent of "robotization" as the dehumanization of the workforce, or even its replacement. However, reducing the use of AI to the simple search for productivity gains would be reductive. In reality, AI could allow to increase the work capacity of humans and not to compete with them in order to replace them. It is in this context, the birth of Augmented Intelligence, that this thesis takes place. This manuscript devoted to the question of visual similarity is divided into two parts. Two practical cases where the collaboration between Man and AI is beneficial are proposed. In the first part, the problem of learning representations for the retrieval of similar images is still under investigation. After implementing a first system similar to those proposed by the state of the art, one of the main limitations is pointed out: the semantic bias. Indeed, the main contemporary methods use image datasets coupled with semantic labels only. The literature considers that two images are similar if they share the same label. This vision of the notion of similarity, however fundamental in AI, is reductive. It will therefore be questioned in the light of work in cognitive psychology in order to propose an improvement: the taking into account of visual similarity. This new definition allows a better synergy between the customs officer and the machine. This work is the subject of scientific publications and a patent. In the second part, after having identified the key components allowing to improve the performances of thepreviously proposed system, an approach mixing empirical and theoretical research is proposed. This secondcase, augmented intelligence, is inspired by recent developments in mathematics and physics. First applied tothe understanding of an important hyperparameter (temperature), then to a larger task (classification), theproposed method provides an intuition on the importance and role of factors correlated to the studied variable(e.g. hyperparameter, score, etc.). The processing chain thus set up has demonstrated its efficiency byproviding a highly explainable solution in line with decades of research in machine learning. These findings willallow the improvement of previously developed solutions
34

Cordier, Virginie. "Influence de la simulation mentale guidée sur l'apprentissage du mouvement en danse." Thesis, La Réunion, 2010. http://www.theses.fr/2010LARE0003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour objectif de mettre en évidence les effets de la simulation mentale guidée sur l’apprentissage, sur la performance et sur l’image du mouvement en danse. Dans la revue de littérature, nous présentons les principales théories de l’apprentissage cognitif et socio-cognitif, ainsi que les mises en œuvre des méthodes d’apprentissage issues de ces deux champs théoriques. Puis, à partir des spécificités de la danse « didactisée », des transformations visées en milieu scolaire et universitaire, et de la place des images mentales en danse, nous envisageons la simulation mentale guidée par des consignes rythmiques, motrices et métaphoriques. Nous présentons ensuite une étude préliminaire visant la construction d'outils d'évaluation de la performance en danse, ainsi que deux études expérimentales menées auprès de sujets adultes novices portant sur l'apprentissage lors de tâches de reproduction de forme et d'improvisation-composition. Les résultats dans ce qu'ils ont d'essentiel montrent (1) que la simulation mentale est une méthode d'apprentissage plus efficace que l'observation à partir du moment où elle est guidée, (2) que les consignes rythmiques sont fondamentales dans l'apprentissage en danse parce qu'elles permettent d'organiser et de structurer le mouvement, (3) que les consignes métaphoriques apparaissent particulièrement adaptées à la dimension expressive et artistique de la danse. Dans leur ensemble, ces résultats soulignent l'importance de guider la simulation mentale à l'aide de consignes pour s'assurer de son efficacité dans l'apprentissage
This study aims to highlight the effects of mental simulation of guided learning, performance and image of the movement in dance. In the literature review, we present the main theories of cognitive and socio-cognitive, and implementations of learning methods from these two theoretical fields. Then, from the specifics of the dance "didactical" transformations referred by schools and universities, and the place of mental images in dance, we consider the mental simulation guided by rhythmic and metaphorical instructions. Afterwards, we present a preliminary study for the tool construction for assessing performance in dance, and two experimental studies conducted with novice adult subjects on learning tasks during reproduction of form and improvisation-composition. The results in their essence show (1) that mental simulation is a more effective method of learning than observation, from the moment it is guided 2) that the rhythmic instructions are fundamental in dance learning because they help to organize and structure the movement, (3) that the metaphorical instructions seem particularly suited to the expressive and artistic dimensions of dancing. Taken together, these findings emphasize the importance of guided mental simulation with instructions to ensure its effectiveness in learning
35

Ben-Younes, Hedi. "Multi-modal representation learning towards visual reasoning." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La quantité d'images présentes sur internet augmente considérablement, et il est nécessaire de développer des techniques permettant le traitement automatique de ces contenus. Alors que les méthodes de reconnaissance visuelle sont de plus en plus évoluées, la communauté scientifique s'intéresse désormais à des systèmes aux capacités de raisonnement plus poussées. Dans cette thèse, nous nous intéressons au Visual Question Answering (VQA), qui consiste en la conception de systèmes capables de répondre à une question portant sur une image. Classiquement, ces architectures sont conçues comme des systèmes d'apprentissage automatique auxquels on fournit des images, des questions et leur réponse. Ce problème difficile est habituellement abordé par des techniques d'apprentissage profond. Dans la première partie de cette thèse, nous développons des stratégies de fusion multimodales permettant de modéliser des interactions entre les représentations d'image et de question. Nous explorons des techniques de fusion bilinéaire, et assurons l'expressivité et la simplicité des modèles en utilisant des techniques de factorisation tensorielle. Dans la seconde partie, on s'intéresse au raisonnement visuel qui encapsule ces fusions. Après avoir présenté les schémas classiques d'attention visuelle, nous proposons une architecture plus avancée qui considère les objets ainsi que leurs relations mutuelles. Tous les modèles sont expérimentalement évalués sur des jeux de données standards et obtiennent des résultats compétitifs avec ceux de la littérature
The quantity of images that populate the Internet is dramatically increasing. It becomes of critical importance to develop the technology for a precise and automatic understanding of visual contents. As image recognition systems are becoming more and more relevant, researchers in artificial intelligence now seek for the next generation vision systems that can perform high-level scene understanding. In this thesis, we are interested in Visual Question Answering (VQA), which consists in building models that answer any natural language question about any image. Because of its nature and complexity, VQA is often considered as a proxy for visual reasoning. Classically, VQA architectures are designed as trainable systems that are provided with images, questions about them and their answers. To tackle this problem, typical approaches involve modern Deep Learning (DL) techniques. In the first part, we focus on developping multi-modal fusion strategies to model the interactions between image and question representations. More specifically, we explore bilinear fusion models and exploit concepts from tensor analysis to provide tractable and expressive factorizations of parameters. These fusion mechanisms are studied under the widely used visual attention framework: the answer to the question is provided by focusing only on the relevant image regions. In the last part, we move away from the attention mechanism and build a more advanced scene understanding architecture where we consider objects and their spatial and semantic relations. All models are thoroughly experimentally evaluated on standard datasets and the results are competitive with the literature
36

Holgado, Otilia. "Analyse didactique de l'activité en formation professionnelle : le cas de l'apprentissage des Systèmes d'Information Géographique." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00732890.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des travaux de recherche en ergonomie et en psychologie cognitive signalent une difficulté d'apprentissage du SIG, sans pour autant s'attarder sur le sujet (Medyckyj-Scott 1991, Nyerges 1991, Davies 1995 et, en France, Wurtz 1996). Notre recherche vient à la suite de ces travaux et tente d'apporter, par la compréhension des mécanismes de l'apprentissage du SIG dans les conditions offertes par la formation professionnelle continue, un éclairage sur les difficultés d'apprentissage du SIG et les manières possibles de les dépasser. Nous avons retenu - filmé et analysé - deux sessions de formation SIG d'une semaine (env. 30h chacune), ayant lieu à 3 années d'intervalle, dans le même centre de formation et étant co-animées par les mêmes deux formateurs. A la manière d'Aline Robert (2008), nous avons observé et enregistré l'activité en formation sans intervenir : une caméra fixe (image et son) a été placée à l'écart, de manière à couvrir le plus largement possible la partie occupée de la salle. Sur le plan théorique, la thèse centrale est celle de la possibilité et de la pertinence d'accéder aux processus et aux mécanismes d'apprentissage par les représentations que les professionnels adultes se construisent. Nous avons examiné cela avec la théorie de la représentation fonctionnelle (Leplat), également appelée image opérative (Ochanine) ou représentation pour l'action (Teiger, Weill-Fassina, Rabardel). Plusieurs autres cadres théoriques ont également été mobilisés : les théories de la formation pour adultes (Barbier, Bourgeois, Kaddouri), celles de la formation professionnelle (Mayen, Pastré, Vergnaud), la théorie des instruments et de l'action instrumentée (Rabardel), la théorie de la médiation et du guidage par autrui (Galperine, Savoyant). Nous avons rendu compte du processus d'apprentissage dans son déroulement, à travers l'évolution du système de représentation des personnes, auquel nous avons eu accès par l'analyse de l'activité verbale. En effet, dans l'interaction verbale entre les formateurs et les apprenants, ou entre des apprenants, les représentations des personnes ressortent comme des ressources (représentations construites avant la formation) ou comme des effets de la formation (représentations récentes, en cours de construction ou de transformation). L'évolution du système de représentations est systématiquement mise en relation avec les conditions qui le déterminent. Une organisation a priori structurée en séquences, mais qui autorise l'intervention de chacun, laisse place à l'expression des représentations des professionnels en formation. L'accent est cependant mis sur l'interaction verbale entre les formateurs et les apprenants et les effets produits. La fonction formative est assurée par deux formateurs, qui sont des professionnels expérimentés et qui agissent en co-animation simultanée. Cela offre un terrain intéressant d'analyse du partage de l'activité de transmission. Nous observons comment les formateurs organisent leur intervention commune : ils se complètent et se soutiennent, mais aussi se contredisent et s'empêchent...La thèse s'inscrit dans une nouvelle orientation du courant de la didactique professionnelle, orientation initiée par Mayen : il s'agit d'analyser la formation en vue du travail et non plus seulement le travail en vue de la formation. En analysant le processus d'apprentissage en formation, la thèse reste toutefois centrée sur le travail. D'abord, parce que l'objet de l'apprentissage, le SIG, est un instrument professionnel. Ensuite, parce que les sujets de la recherche sont des professionnels en activité, qui ne se détachent pas de leur travail en arrivant en formation (Pastré, Mayen et Vergnaud, 2007). Enfin, parce que les tâches et les situations de travail connues et vécues par chacun - et verbalisées devant le groupe - sont autant de ressources pour apprendre en situation de formation.
37

Shim, Kyung-Eun. "L'assimilation du tour-pivot en danse classique la Pirouette en dehors par la danse coréenne Hanbaldeuleodolgi : une étude comparative de la manière dont la danse classique et la danse coréenne maîtrisent les principes fonctionnels du tour-pivot à partir d'une analyse de leur apprentissage." Paris, EHESS, 2016. http://www.theses.fr/2016EHES0010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A partir des échanges culturels entre l'Occident et l'Asie depuis début de 20eme siècle, la danse coréenne a intégré tout en les transformant des figures de la danse classique. Nous avons retenu un figure centrale de la danse classique la pirouette en dehors, qui dans la danse coréenne est connu sous le nom de Hanbaldeuleodolgi. L'intérêt de cette figure dansée est qu'elle relève d'une esthétique différente selon le contexte culturel dans lequel elle est réalisée tout en répondant à des principe mécaniques analogues. Notre recherche vise donc à saisir d'une part comment est exprimé dans ces deux cultures (France, Corée), un mouvement dansé qui relève de contraintes mécaniques similaire (créer des forces de rotation) et d'autre part comment cette figure dansée est apprise par les jeune danseuses. Pour mener à bien ce projet nous avons intégré diverses approches complémentaires entre différents cadres disciplinaires. Nous proposons deux manières de décrire le tour pivot qualitativement étudié à l'aide de la théorie de Laban et à partir d'entretiens semi-directifs de professeurs pour savoir comment chaque culture perçoit les propriétés du tour pivot d'une part et d'autre part comment l'apprentissage est envisagé. Par ailleurs une analyse biomécanique du tour pivot a permis de montrer comment chaque culture maîtrise les paramètres de mouvement. Ces analyses mises en perspective avec une certaine philosophie coréenne de la personne nous permet de saisir, du moins en partie, le processus de transformation et donc d'assimilation d'un mouvement dansé de la danse classique par la danse coréenne
From the cultural exchange between the West and Asia since the beginning of the 20th century, the Korean dance has integrated quite a few aspects of classical dance while transforming its figures. The transformation itself is what we are interested in. We focused on a central figure in ballet la pirouette en dehors, which in the Korean dance is known as the Hanbaldeuleodolgi. Our research aims to understand how a dance movement which comes under similar mechanical stresses (producing rotational forces) is expressed in both cultures (France, Korea). To complete this project we believe that an overall approach between different academic fields was necessary. We propose two ways to describe the pivot turn qualitatively, a detailed description of the dance figures with the theory of Laban and semi-structured interviews of how high level teachers from both cultures perceive the pivot turn properties and how they view the learning process. In addition, a biomechanical analysis of the pivot turn has enabled to show how each culture finely tune motion parameters to give both dance its cultural artistic dimension. These analyzes set in perspective with some aspect of Korean philosophy of the person enables us to capture, at least partially, the process of transformation and therefore assimilation of ballet dance movements by Korean dance
38

Munzer, Thibaut. "Représentations relationnelles et apprentissage interactif pour l'apprentissage efficace du comportement coopératif." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0574/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente de nouvelles approches permettant l’apprentissage efficace et intuitif de plans de haut niveau pour les robots collaboratifs. Plus précisément, nous étudions l’application d’algorithmes d’apprentissage par démonstration dans des domaines relationnels. L’utilisation de domaines relationnels pour représenter le monde permet de simplifier la représentation de comportements concurrents et collaboratifs. Nous avons commencé par développer et étudier le premier algorithme d’apprentissage par renforcement inverse pour domaines relationnels. Nous avons ensuite présenté comment utiliser le formalisme RAP pour représenter des tâches collaboratives comprenant un robot et un opérateur humain. RAP est une extension des MDP relationnels qui permet de modéliser des activités concurrentes. Utiliser RAP nous a permis de représenter à la fois l’humain et le robot dans le même processus, mais également de modéliser des activités concurrentes du robot. Sous ce formalisme, nous avons montré qu’il était possible d’apprendre le comportement d’une équipe, à la fois comme une politique et une récompense. Si des connaissances a priori sur la tâche à réaliser sont disponibles, il est possible d’utiliser le même algorithme pour apprendre uniquement les préférences de l’opérateur. Cela permet de s’adapter à l’utilisateur. Nous avons montré que l’utilisation des représentations relationnelles permet d’apprendre des comportements collaboratifs à partir de peu de démonstrations.Ces comportements sont à la fois robustes au bruit, généralisables à de nouveaux états, et transférables à de nouveaux domaines (par exemple en ajoutant des objets). Nous avons également introduit une architecture d’apprentissage interactive qui permet au système de faire moins d’erreurs tout en demandant moins d’efforts à l’opérateur humain. Le robot, en estimant sa confiance dans ses décisions, est capable de demander des instructions quand il est incertain de l’activité à réaliser. Enfin, nous avons implémenté ces approches sur un robot et montré leurs impacts potentiels dans un scenario réaliste
This thesis presents new approaches toward efficient and intuitive high-level plan learning for cooperative robots. More specifically this work study Learning from Demonstration algorithm for relational domains. Using relational representation to model the world, simplify representing concurrentand cooperative behavior.We have first developed and studied the first algorithm for Inverse ReinforcementLearning in relational domains. We have then presented how one can use the RAP formalism to represent Cooperative Tasks involving a robot and a human operator. RAP is an extension of the Relational MDP framework that allows modeling concurrent activities. Using RAP allow us to represent both the human and the robot in the same process but also to model concurrent robot activities. Under this formalism, we have demonstrated that it is possible to learn behavior, as policy and as reward, of a cooperative team. Prior knowledge about the task can also be used to only learn preferences of the operator.We have shown that, using relational representation, it is possible to learn cooperative behaviors from a small number of demonstration. That these behaviors are robust to noise, can generalize to new states and can transfer to different domain (for example adding objects). We have also introduced an interactive training architecture that allows the system to make fewer mistakes while requiring less effort from the human operator. By estimating its confidence the robot is able to ask for instructions when the correct activity to dois unsure. Lastly, we have implemented these approaches on a real robot and showed their potential impact on an ecological scenario
39

Mairal, Julien. "Sparse coding for machine learning, image processing and computer vision." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00595312.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
We study in this thesis a particular machine learning approach to represent signals that that consists of modelling data as linear combinations of a few elements from a learned dictionary. It can be viewed as an extension of the classical wavelet framework, whose goal is to design such dictionaries (often orthonormal basis) that are adapted to natural signals. An important success of dictionary learning methods has been their ability to model natural image patches and the performance of image denoising algorithms that it has yielded. We address several open questions related to this framework: How to efficiently optimize the dictionary? How can the model be enriched by adding a structure to the dictionary? Can current image processing tools based on this method be further improved? How should one learn the dictionary when it is used for a different task than signal reconstruction? How can it be used for solving computer vision problems? We answer these questions with a multidisciplinarity approach, using tools from statistical machine learning, convex and stochastic optimization, image and signal processing, computer vision, but also optimization on graphs.
40

Sarker, Bishnu. "On Graph-Based Approaches for Protein Function Annotation and Knowledge Discovery." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès des technologies de séquençage génomique ont conduit à une croissance exponentielle du nombre de séquences protéiques dans les bases de données publiques. Il est important d’exploiter cette énorme quantité de données pour décrire les êtres vivants au niveau moléculaire, et ainsi mieux comprendre les processus pathologiques humains et accélérer la découverte de médicaments. Une condition préalable, cependant, est que toutes ces protéines soient annotées avec des propriétés fonctionnelles telles que les numéros de commission enzymatique (EC) ou les termes de l’ontologie « Gene Ontology » (GO). Aujourd’hui, seule une petite fraction des protéines est annotée fonctionnellement et examinée manuellement par des experts car c’est une tâche coûteuse, lente et chronophage. Le développement d’outils d’annotation automatique des protéines est la voie à suivre pour réduire l’écart entre séquences protéiques annotées et non annotées et produire des annotations fiables. Aucun outil déjà développés n’est pleinement satisfaisant. Seuls quelques-uns utilisent les approches à base de graphes et tiennent compte de la composition en domaines des protéines qui sont des régions conservées à travers les séquences protéiques de la même famille. Dans cette thèse, nous concevons et évaluons des approches à base de graphes pour effectuer l’annotation automatique des fonctions protéiques et nous explorons l’impact de l’architecture en domaines sur les fonctions protéiques. La première partie est consacrée à l’annotation de la fonction des protéines à l’aide d’un graphe de similarité de domaines et de techniques de propagation d’étiquettes (ou de labels) améliorées. Tout d’abord, nous présentons GrAPFI (« Graph-based Automatic Protein Function Inference ») pour l’annotation automatique des protéines par les numéros EC et par des termes GO. Nous validons les performances de GrAPFI en utilisant six protéomes de référence dans UniprotKB/SwissProt, et nous comparons les résultats de GrAPFI avec des outils de référence. Nous avons constaté que GrAPFI atteint une meilleure précision et une couverture comparable ou meilleure par rapport aux outils existants. La deuxième partie traite de l’apprentissage de représentations pour les entités biologiques. Au début, nous nous concentrons sur les techniques de plongement lexical (« word embedding »), utilisant les réseaux neuronaux. Nous formulons la tâche d’annotation comme une tâche de classification de textes. Nous construisons un corpus de protéines sous forme de phrases composées de leurs domaines respectifs et nous apprenons une représentation vectorielle à dimension fixe. Ensuite, nous portons notre attention sur l’apprentissage de représentations à partir de graphes de connaissances intégrant différentes sources de données liées aux protéines et à leurs fonctions. Nous formulons le problème d’annotation fonctionnelle des protéines comme une tâche de prédiction de liens entre une protéine et un terme GO. Nous proposons Prot-A-GAN, un modèle d’apprentissage automatique inspiré des réseaux antagonistes génératifs (GAN pour « Generative Adversarial Network »). Nous observons que Prot-A-GAN fonctionne avec des résultats prometteurs pour associer des fonctions appropriées aux protéines requêtes. En conclusion, cette thèse revisite le problème crucial de l’annotation automatique des fonctions protéiques à grande échelle en utilisant des techniques innovantes d’intelligence artificielle. Elle ouvre de larges perspectives, notamment pour l’utilisation des graphes de connaissances, disponibles aujourd’hui dans de nombreux domaines autres que l’annotation de protéines grâce aux progrès de la science des données
Due to the recent advancement in genomic sequencing technologies, the number of protein entries in public databases is growing exponentially. It is important to harness this huge amount of data to describe living things at the molecular level, which is essential for understanding human disease processes and accelerating drug discovery. A prerequisite, however, is that all of these proteins be annotated with functional properties such as Enzyme Commission (EC) numbers and Gene Ontology (GO) terms. Today, only a small fraction of the proteins is functionally annotated and reviewed by expert curators because it is expensive, slow and time-consuming. Developing automatic protein function annotation tools is the way forward to reduce the gap between the annotated and unannotated proteins and to predict reliable annotations for unknown proteins. Many tools of this type already exist, but none of them are fully satisfactory. We observed that only few consider graph-based approaches and the domain composition of proteins. Indeed, domains are conserved regions across protein sequences of the same family. In this thesis, we design and evaluate graph-based approaches to perform automatic protein function annotation and we explore the impact of domain architecture on protein functions. The first part is dedicated to protein function annotation using domain similarity graph and neighborhood-based label propagation technique. We present GrAPFI (Graph-based Automatic Protein Function Inference) for automatically annotating proteins with enzymatic functions (EC numbers) and GO terms from a protein-domain similarity graph. We validate the performance of GrAPFI using six reference proteomes from UniprotKB/SwissProt and compare GrAPFI results with state-of-the-art EC prediction approaches. We find that GrAPFI achieves better accuracy and comparable or better coverage. The second part of the dissertation deals with learning representation for biological entities. At the beginning, we focus on neural network-based word embedding technique. We formulate the annotation task as a text classification task. We build a corpus of proteins as sentences composed of respective domains and learn fixed dimensional vector representation for proteins. Then, we focus on learning representation from heterogeneous biological network. We build knowledge graph integrating different sources of information related to proteins and their functions. We formulate the problem of function annotation as a link prediction task between proteins and GO terms. We propose Prot-A-GAN, a machine-learning model inspired by Generative Adversarial Network (GAN) to learn vector representation of biological entities from protein knowledge graph. We observe that Prot-A-GAN works with promising results to associate ap- propriate functions with query proteins. In conclusion, this thesis revisits the crucial problem of large-scale automatic protein function annotation in the light of innovative techniques of artificial intelligence. It opens up wide perspectives, in particular for the use of knowledge graphs, which are today available in many fields other than protein annotation thanks to the progress of data science
41

Senoussi, Medhi. "Flexibilité temporelle et spatiale des représentations neurales d'objets visuels lors d'apprentissages." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse portent sur l'effet d'apprentissages à court et long terme sur le système visuel. Nous avons d'abord montré grâce à des enregistrements Éléctroencéphalographiques que l'apprentissage d'une séquence de stimuli visuels induisait une activité cérébrale spontanée et sélective au prochain stimulus devant apparaitre et que cette activité sélective s'exprimait dans les bandes alpha et beta de l'activité électrique cérébrale. Par la suite nous avons montré grâce à de l'Imagerie par Résonance Magnétique fonctionnelle que lors d'apprentissages longs (trois semaines) les représentations neurales de catégories visuelles associées étaient modulées et devenaient plus similaires après l'apprentissage. Les travaux présentés dans cette thèse ont donc permis de mieux caractériser l'impact d'apprentissages à différentes échelles de temps sur les représentations neurales d'objets visuels
The work presented in this thesis deals with the effect of short- and long-term learning on the visual system. We first demonstrated through electroencephalographic recordings that learning a sequence of visual stimuli induced spontaneous and selective cerebral activity to the next-to-appear stimulus and that this selective activity was expressed in the alpha and beta bands of cerebral electrical activity. Subsequently, we showed through functional magnetic resonance imaging that during long learning (three weeks) the neural representations of associated visual categories were modulated and became more similar due to learning. The work presented in this thesis has thus made it possible to better characterize the impact of learning at different time scales on the neural representations of visual objects
42

El-Zakhem, Imad. "Modélisation et apprentissage des perceptions humaines à travers des représentations floues : le cas de la couleur." Reims, 2009. http://theses.univ-reims.fr/exl-doc/GED00001090.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail de thèse est de mettre en œuvre une démarche interactive de construction du profil utilisateur modélisant sa propre perception. Nous présenterons deux démarches pour construire le profil représentant la perception d'un utilisateur à travers des sous-ensembles flous. Une démarche descriptive dans le cas d'un utilisateur expert et une démarche constructive dans le cas d'un utilisateur non-expert. Pour la démarche descriptive, nous proposerons une procédure de questionnement de l'utilisateur permettant de définir complètement l'ensemble des sous-ensembles flous représentant sa perception. Dans le cas d'un utilisateur non-expert, celui-ci pourra définir sa propre perception en comparant et en sélectionnant quelques profils reflétant la perception d'utilisateurs experts. Nous présenterons une procédure d'agrégation permettant de construire le profil de l'utilisateur à partir des profils experts sélectionnés et des taux de satisfaction. Une application de la démarche dans le cas de la perception de la couleur sera également présentée. Par la suite, on exploite les profils déjà construits pour la classification d'images. Nous proposerons une démarche permettant de construire le profil d'une image selon la perception d'un utilisateur en utilisant le profil standard de l'image et le profil représentant la perception de l'utilisateur. Dans cette démarche nous utiliserons une nouvelle définition de la comparabilité et de la compatibilité de deux sous-ensembles flous. Pour finir, nous présenterons une implémentation informatique de la démarche. La structure de la base de données ainsi que quelques exemples seront également présentés
The target of this thesis is to implement an interactive modeling of the user perception and a creation of an appropriate profile. We present two methods to build the profile representing the perception of the user through fuzzy subsets. The first method is a descriptive method used by an expert user and the second one is a constructive method used by a none-expert user. For the descriptive method, we propose a questioning procedure allowing the user to define completely his profile. For the constructive method, the user will be able to define his perception while comparing and selecting some profiles reflecting the perception of other expert users. We present a procedure of aggregation allowing building the profile of the user starting from the selected expert profiles and the rates of satisfaction. As a case study, we describe an application to model the color perception. Thereafter, we exploit the profiles already built for image classification. We propose a procedure that allows building the profile of an image according to the user perception, by using the standard profile of the image and the user’s profile representing his perception. In this method we use new definitions for the notions of comparability and compatibility of two fuzzy subsets. At the end, we present an implementation of the all procedure, the structure of the database as some examples and results
43

Laugier, Catherine. "Apprentissage par observation en danse : rôle des processus représentatifs dans la reproduction de mouvements." Montpellier 1, 1995. http://www.theses.fr/1995MON14002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Bucher, Maxime. "Apprentissage et exploitation de représentations sémantiques pour la classification et la recherche d'images." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC250/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous étudions différentes questions relatives à la mise en pratique de modèles d'apprentissage profond. En effet malgré les avancées prometteuses de ces algorithmes en vision par ordinateur, leur emploi dans certains cas d'usage réels reste difficile. Une première difficulté est, pour des tâches de classification d'images, de rassembler pour des milliers de catégories suffisamment de données d'entraînement pour chacune des classes. C'est pourquoi nous proposons deux nouvelles approches adaptées à ce scénario d'apprentissage, appelé <>.L'utilisation d'information sémantique pour modéliser les classes permet de définir les modèles par description, par opposition à une modélisation à partir d'un ensemble d'exemples, et rend possible la modélisation sans donnée de référence. L'idée fondamentale du premier chapitre est d'obtenir une distribution d'attributs optimale grâce à l'apprentissage d'une métrique, capable à la fois de sélectionner et de transformer la distribution des données originales. Dans le chapitre suivant, contrairement aux approches standards de la littérature qui reposent sur l'apprentissage d'un espace d'intégration commun, nous proposons de générer des caractéristiques visuelles à partir d'un générateur conditionnel. Une fois générés ces exemples artificiels peuvent être utilisés conjointement avec des données réelles pour l'apprentissage d'un classifieur discriminant. Dans une seconde partie de ce manuscrit, nous abordons la question de l'intelligibilité des calculs pour les tâches de vision par ordinateur. En raison des nombreuses et complexes transformations des algorithmes profonds, il est difficile pour un utilisateur d'interpréter le résultat retourné. Notre proposition est d'introduire un <> dans le processus de traitement. La représentation de l'image est exprimée entièrement en langage naturel, tout en conservant l'efficacité des représentations numériques. L'intelligibilité de la représentation permet à un utilisateur d'examiner sur quelle base l'inférence a été réalisée et ainsi d'accepter ou de rejeter la décision suivant sa connaissance et son expérience humaine
In this thesis, we examine some practical difficulties of deep learning models.Indeed, despite the promising results in computer vision, implementing them in some situations raises some questions. For example, in classification tasks where thousands of categories have to be recognised, it is sometimes difficult to gather enough training data for each category.We propose two new approaches for this learning scenario, called <>. We use semantic information to model classes which allows us to define models by description, as opposed to modelling from a set of examples.In the first chapter we propose to optimize a metric in order to transform the distribution of the original data and to obtain an optimal attribute distribution. In the following chapter, unlike the standard approaches of the literature that rely on the learning of a common integration space, we propose to generate visual features from a conditional generator. The artificial examples can be used in addition to real data for learning a discriminant classifier. In the second part of this thesis, we address the question of computational intelligibility for computer vision tasks. Due to the many and complex transformations of deep learning algorithms, it is difficult for a user to interpret the returned prediction. Our proposition is to introduce what we call a <> in the processing pipeline, which is a crossing point in which the representation of the image is entirely expressed with natural language, while retaining the efficiency of numerical representations. This semantic bottleneck allows to detect failure cases in the prediction process so as to accept or reject the decision
45

Poittevin, Luc. "Un outil générique de conception et de révision coopérative de Bases de Connaissances s'appuyant sur la notion de situation." Phd thesis, Université Paris Sud - Paris XI, 1998. http://tel.archives-ouvertes.fr/tel-00941692.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'inscrit dans la recherche en acquisition des connaissances et en apprentissage automatique pour la modélisation et la validation incrémentale de connaissances de résolution de problème. Nous proposons un modèle simple de représentation des connaissances opératoires qui s'appuie sur la notion de situation, et présentons un outil de modélisation incrémentale et de révision coopérative pour les Bases de Connaissances (BC) exprimées dans cette représentation. Cet outil a été mis au point dans le cadre d'un projet de conception de dialogues télématiques personnalisés. Dans notre modèle, chaque étape intermédiaire de résolution du problème est représentée explicitement dans le SBC sous la forme d'un objet simple et compréhensible appelé "nodule de situation". Les corrections et enrichissements de la BC sont effectués de manière incrémentale, c'est-à-dire au fur et à mesure de la découverte de cas mal résolus, et coopérative, c'est-à-dire en s'appuyant sur un utilisateur / concepteur de la BC compétent dans le domaine. Les caractéristiques de notre approche, que nous proposons de baptiser "révision située", sont les suivantes : l'objectif est de faire en sorte que le processus de révision de la BC soit facile pour l'utilisateur, basé sur des cas concrets, et opérant des corrections "prudentes" et validées. L'outil REVINOS a été développé dans cette optique. Chaque phase de révision coopérative contient une étape de modélisation ou de réutilisation d'objets de la BC, à la charge du concepteur, puis une étape de correction proprement dite, effectuée de manière semi-automatique. REVINOS guide le concepteur tout au long du processus de révision et propose des généralisations à des cas concrets similaires. REVINOS offre l'originalité de chercher à valider les répercussions des corrections proposées, en soumettant au concepteur des exemples abstraits qui correspondent à des ensembles de cas concrets de résolution.
46

Goh, Hanlin. "Apprentissage de Représentations Visuelles Profondes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00948376.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les avancées récentes en apprentissage profond et en traitement d'image présentent l'opportunité d'unifier ces deux champs de recherche complémentaires pour une meilleure résolution du problème de classification d'images dans des catégories sémantiques. L'apprentissage profond apporte au traitement d'image le pouvoir de représentation nécessaire à l'amélioration des performances des méthodes de classification d'images. Cette thèse propose de nouvelles méthodes d'apprentissage de représentations visuelles profondes pour la résolution de cette tache. L'apprentissage profond a été abordé sous deux angles. D'abord nous nous sommes intéressés à l'apprentissage non supervisé de représentations latentes ayant certaines propriétés à partir de données en entrée. Il s'agit ici d'intégrer une connaissance à priori, à travers un terme de régularisation, dans l'apprentissage d'une machine de Boltzmann restreinte. Nous proposons plusieurs formes de régularisation qui induisent différentes propriétés telles que la parcimonie, la sélectivité et l'organisation en structure topographique. Le second aspect consiste au passage graduel de l'apprentissage non supervisé à l'apprentissage supervisé de réseaux profonds. Ce but est réalisé par l'introduction sous forme de supervision, d'une information relative à la catégorie sémantique. Deux nouvelles méthodes sont proposées. Le premier est basé sur une régularisation top-down de réseaux de croyance profonds à base de machines des Boltzmann restreintes. Le second optimise un cout intégrant un critère de reconstruction et un critère de supervision pour l'entrainement d'autoencodeurs profonds. Les méthodes proposées ont été appliquées au problème de classification d'images. Nous avons adopté le modèle sac-de-mots comme modèle de base parce qu'il offre d'importantes possibilités grâce à l'utilisation de descripteurs locaux robustes et de pooling par pyramides spatiales qui prennent en compte l'information spatiale de l'image. L'apprentissage profonds avec agrégation spatiale est utilisé pour apprendre un dictionnaire hiérarchique pour l'encodage de représentations visuelles de niveau intermédiaire. Cette méthode donne des résultats très compétitifs en classification de scènes et d'images. Les dictionnaires visuels appris contiennent diverses informations non-redondantes ayant une structure spatiale cohérente. L'inférence est aussi très rapide. Nous avons par la suite optimisé l'étape de pooling sur la base du codage produit par le dictionnaire hiérarchique précédemment appris en introduisant introduit une nouvelle paramétrisation dérivable de l'opération de pooling qui permet un apprentissage par descente de gradient utilisant l'algorithme de rétro-propagation. Ceci est la première tentative d'unification de l'apprentissage profond et du modèle de sac de mots. Bien que cette fusion puisse sembler évidente, l'union de plusieurs aspects de l'apprentissage profond de représentations visuelles demeure une tache complexe à bien des égards et requiert encore un effort de recherche important.
47

Poplimont, Christine. "Représentations sociales des formateurs dans la formation par alternance : approche intensive et étude clinique de cas." Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX10028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette recherche pose le statut de l'identification de la contradiction dans la formation. Contradiction rendue plus pregnante par l'alternance, ressort essentiel d'apprentissage pour la personne. La place majeure que joue l'experience personnelle dans la construction des apprentissages singuliers, nous a conduit a la question de la "problematisation" dans la formation par alternance. A partir de productions verbales interrogees en debut et en fin. De formation, puis deux ans apres, nous avons approche la question de l'integration comme articulation dialectique de poles opposes. Le passage du "contradictoriel" au paradoxal" serait alors susceptible de "signer" ce que l'on peut appeler "integration".
48

Fernandes, Hilaire. "iSTOA, modèle notionnel de guidage macroscopique de l'apprentissage." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00498599.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les EIAH sont souvent spécialisés à un domaine bien précis. Cela leur permet d'offrir des modélisations fines du domaine et de l'apprenant. L'analyse alors pro- duite à partir des traces est didactiquement très fine et spécifique au domaine en question. Elle permet de guider l'apprenant en cas de difficulté et de lui proposer des activités de soutien. Cependant cette analyse est étroitement liée aux domaines didactiques, et différente d'un domaine à un autre. Dans la diversité des domaines enseignés, comment proposer un modèle tenant compte de cette multitude et per- mettant une analyse de l'activité de l'élève et son guidage ? Nous proposons une analyse de l'activité de l'élève hors du champ didactique pour un guidage que nous nommons macroscopique, par opposition à une analyse didactique fine. Le guidage proposé est paramétré selon le domaine afin d'être transposable. Notre approche s'appuie sur les réseaux notionnels, les étayages pédagogiques, les traces d'objets et l'inférence sur celles-ci. Leur utilisation conjointe permet la description du domaine, la modélisation de l'apprenant et son pilotage par l'EIAH. Nous présentons cette approche implantée dan ıSTOA
49

Glady, Yannick. "Raisonnement par analogie et son développement : rôle des fonctions exécutives et du but de la tâche." Thesis, Dijon, 2013. http://www.theses.fr/2013DIJOL036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent manuscrit développe une problématique liée à l’implication des capacités de gestion de buts et d’engagement des fonctions exécutives dans le raisonnement par analogie et son développement. Les trois premières expériences étudient cette problématique dans deux tâches de raisonnement par analogie différentes à travers l’étude des stratégies visuelles employées par des adultes et des enfants de 6-7 ans. Les résultats montrent des différences de stratégies visuelles entre les tâches, liées aux buts différents de celles-ci, ainsi que, entre enfants et adultes, des différences de patterns visuels liés à l’inhibition de l'information non pertinente pour la résolution des problèmes. Les deux expériences suivantes étudient les stratégies visuelles, toujours en lien avec le fonctionnement exécutif et le maintien du but, dans une tâche A:B::C:? dont la difficulté est manipulée afin de mettre en évidence des différences d’engagement de processus de contrôle et d’évaluation. Les résultats montrent un effet de la difficulté des essais, ainsi que du type de distracteur, dans les stratégies visuelles. Enfin les trois dernières expériences étudient l’implication de la flexibilité cognitive, une des fonctions exécutives, dans le raisonnement par analogie, chez l’enfant (5-6 ans), limité dans sa flexibilité. Les résultats montrent que l’ancrage dans un type de représentation, pertinent ou non pour la solution du problème, est lié à leur capacité à résoudre le problème, et suggèrent une difficulté à changer de représentation au cours de la résolution. Ces résultats sont finalement discutés en rapport aux modèles de raisonnement par analogie et de développement de cette capacité
This manuscript develops an issue related to the involvement of goal management capabilities and executive functions in this type of reasoning and its development. The first three experiments examine this issue in two tasks of analogical reasoning, the scene analogy task and the A:B::C:? task, through the study of visual strategies used by adults, and children aged 6-to-7. The results show differences in visual patterns related to goals, and to the inhibition of irrelevant information for the solution of the problems, between the different tasks, and between children and adults. The following two experiments study the visual strategies, always in relation to executive functioning and goal management, in an A:B::C:? task whose difficulty is manipulated to highlight the difference in involvement of monitoring and evaluation processes. The results do show an effect of the difficulty of the test and the type of distractor in the visual strategies employed. Finally, the last three experiments investigate the involvement of cognitive flexibility, one of the executive functions, in the analogical reasoning of preschool children (5-6-year-olds), limited in their flexibility. The results show that their early anchoring in a type of representation, relevant or not to the solution of the problem, is related to their ability to solve the problem later, and thus suggest a difficulty in shifting their representation during the resolution of the problems. These results are finally discussed in relation to models of analogical reasoning and of the development of this ability, especially those integrating goal management and executive functions
50

Xie, Bingqing. "Image-domain material decomposition in spectral photon-counting CT for medical applications." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La décomposition de matériaux est un problème fondamental et primordial dans la tomographie spectrale (sCT—spectral computed tomography) par rayons X basée sur des détecteurs à comptage de photons (PCD—photon counting detector). La présente thèse porte sur le développement de méthodes de décomposition de matériaux en utilisant des informations spectrale et morphologique encodées dans des images sCT multi-énergie. Dans ce cadre, trois méthodes ont été développées. Pour la première méthode, en utilisant la densité de masse limitée, la parcimonie conjointe locale, et le faible rang structurel (DSR) dans le domaine de l'image, nous obtenons une décomposition très précise de matériaux tels que le gadolinium, l'iode et le fer. Les résultats sur les données numériques et physiques du fantôme ont démontré que la méthode DSR proposée conduit à une décomposition plus précise que la méthode pseudo-inverse habituelle avec décomposition en valeur singulière (SVD—singular value decomposition) et la méthode de régularisation parcimonieuse courante avec contrainte de norme L1 (lasso). La deuxième méthode opère par région. Elle consiste à optimiser les matériaux de base en se basant sur la segmentation spatio-énergétique des régions d'intérêt (ROI—regions-of-interests) dans les images sCT, à réduire le bruit en faisant le moyennage des images spatiales multi-énergie, et à effectuer une décomposition fine des matériaux impliquant une matrice de décomposition optimisée, une régularisation du débruitage et une régularisation parcimonieuse. Les résultats sur des données numériques et physiques ont montré que la méthode proposée de décomposition des matériaux ROI par ROI (ROI-wise—region-of-interests-wise) présente une fiabilité et une précision nettement supérieures à celles des méthodes de décomposition courantes fondées sur la régularisation de la variation totale (TV) ou de la norme L1. Dans la troisième méthode, nous proposons la notion d'imagerie sCT à super-résolution énergétique (SER—super-energy-resolution), qui est réalisée en établissant la relation entre la simulation et les fantômes physiques au moyen d'un apprentissage par dictionnaire couplé, de manière pixel par pixel. L'efficacité de ces méthodes proposées a été validée sur des données de fantômes numériques, de fantômes physiques et in vivo. Les résultats montrent que, pour la même méthode de décomposition de matériaux utilisant la régularisation par lasso, l'imagerie à super-résolution énergétique proposée présente une précision de décomposition et un pouvoir de détection beaucoup plus élevé que ce que peut fournir la machine sCT actuelle
Material decomposition is a fundamental and primordial problem in spectral photon-counting X-ray CT (sCT). The present thesis focuses on the development of material decomposition methods using spectral and morphological information embedded in multi-energy sCT images. In this framework, three methods were developed. For the first method, by using bounded mass density, local joint sparsity and structural low-rank (DSR) in image domain, we achieve highly accurate decomposition of materials such as gadolinium, iodine and iron. The results on both numerical phantom and physical data demonstrated that the proposed DSR method leads to more accurate decomposition than usual pseudo-inverse method with singular value decomposition (SVD) and current popular sparse regularization method with L1-norm constraint. The second method works in a region-wise manner. It consists in optimizing basis materials based on spatio-energy segmentation of regions-of-interests (ROIs) in sCT images, reducing noise by averaging multi-energy spatial images, and performing a fine material decomposition involving optimized decomposition matrix, denoising regularization and sparsity regularization. The results on both digital and physical data showed that the proposed ROI-wise material decomposition method presents clearly higher reliability and accuracy compared to common decomposition methods based on total variation (TV) or L1-norm (lasso) regularization. In the third method, we propose the notion of super-energy-resolution (SER) sCT imaging, which is realized through establishing the relationship between simulation and physical phantoms by means of coupled dictionary learning in a pixel-wise way. The effectiveness of the proposed methods was validated on digital phantom, physical phantoms and in vivo data. The results showed that for the same decomposition method using lasso regularization, the proposed super-energy-resolution imaging presents much higher decomposition accuracy and detection ability compared to what can be provided by current sCT machine

To the bibliography