Dissertations / Theses on the topic 'Apprentissage de représentation d'état'

To see the other types of publications on this topic, follow the link: Apprentissage de représentation d'état.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage de représentation d'état.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Merckling, Astrid. "Unsupervised pretraining of state representations in a rewardless environment." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS141.

Full text
Abstract:
Cette thèse vise à étendre les capacités de l'apprentissage de représentation d'état (state representation learning, SRL) afin d'aider la mise à l'échelle des algorithmes d'apprentissage par renforcement profond (deep reinforcement learning, DRL) aux tâches de contrôle continu avec des observations sensorielles à haute dimension (en particulier des images). Le SRL permet d'améliorer les performances des algorithmes de DRL en leur transmettant de meilleures entrées que celles apprises à partir de zéro avec des stratégies de bout-en-bout. Plus précisément, cette thèse aborde le problème de l'estimation d'état à la manière d'un pré-entraînement profond non supervisé de représentations d'état sans récompense. Ces représentations doivent vérifier certaines propriétés pour permettre l'application correcte du bootstrapping et d'autres mécanismes de prises de décisions communs à l'apprentissage supervisé, comme être de faible dimension et garantir la cohérence locale et la topologie (ou connectivité) de l'environnement, ce que nous chercherons à réaliser à travers les modèles pré-entraînés avec les deux algorithmes de SRL proposés dans cette thèse
This thesis seeks to extend the capabilities of state representation learning (SRL) to help scale deep reinforcement learning (DRL) algorithms to continuous control tasks with high-dimensional sensory observations (such as images). SRL allows to improve the performance of DRL by providing it with better inputs than the input embeddings learned from scratch with end-to-end strategies. Specifically, this thesis addresses the problem of performing state estimation in the manner of deep unsupervised pretraining of state representations without reward. These representations must verify certain properties to allow for the correct application of bootstrapping and other decision making mechanisms common to supervised learning, such as being low-dimensional and guaranteeing the local consistency and topology (or connectivity) of the environment, which we will seek to achieve through the models pretrained with the two SRL algorithms proposed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
2

Bigot, Damien. "Représentation et apprentissage de préférences." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30031/document.

Full text
Abstract:
La modélisation des préférences par le biais de formalismes de représentation compacte fait l'objet de travaux soutenus en intelligence artificielle depuis plus d'une quinzaine d'années. Ces formalismes permettent l'expression de modèles suffisamment flexibles et riches pour décrire des comportements de décision complexes. Pour être intéressants en pratique, ces formalismes doivent de plus permettre l'élicitation des préférences de l'utilisateur, et ce en restant à un niveau admissible d'interaction. La configuration de produits combinatoires dans sa version business to customer et la recherche à base de préférences constituent de bons exemples de ce type de problème de décision où les préférences de l'utilisateur ne sont pas connues a priori. Dans un premier temps, nous nous sommes penchés sur l'apprentissage de GAI-décompositions. Nous verrons qu'il est possible d'apprendre une telle représentation en temps polynomial en passant par un système d'inéquations linéaires. Dans un second temps, nous proposerons une version probabiliste des CP-nets permettant la représentation de préférences multi-utilisateurs afin de réduire le temps nécessaire à l'apprentissage des préférences d'un utilisateur. Nous étudierons les différentes requêtes que l'on peut utiliser avec une telle représentation, puis nous nous pencherons sur la complexité de ces requêtes. Enfin, nous verrons comment apprendre ce nouveau formalisme, soit grâce à un apprentissage hors ligne à partir d'un ensemble d'objets optimaux, soit grâce à un apprentissage en ligne à partir d'un ensemble de questions posées à l'utilisateur
--
APA, Harvard, Vancouver, ISO, and other styles
3

Kurovszky, Monika. "Etude des systèmes dynamiques hybrides par représentation d'état discrète et automate hybride." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00198326.

Full text
Abstract:
Le travail présenté dans ce mémoire propose une méthodologie de synthèse de la commande pour des systèmes hybrides, qui permet de calculer l'ensemble de toutes les lois de commande telles que le fonctionnement du système respecte les spécifications imposées par le cahier des charges. Notre approche consiste à représenter la dynamique continue par un système linéaire discrétisé et la dynamique événementielle par un automate à états finis. L'ensemble donne un automate hybride sur lequel les techniques d'analyse d'atteignabilité sont appliquées. Ces techniques permettent d'obtenir l'automate atteignable, qui ne contient que les trajectoires possibles du système pour une condition initiale donnée. En quelque sorte, nous avons ici une généralisation de la méthode clock translation. L'utilisation du temps discrétisé permet d'obtenir un automate à états finis modélisant le système hybride. Ce modèle est obtenu par le dépliage temporel de la dynamique continue du système dans chaque sommet de l'automate hybride. La technique est similaire avec celle proposée par Brandin et Wonham pour les systèmes temporisés. Par ce modèle les trajectoires du système hybride seront explicitement représentées. L'approche de synthèse de la commande présentée dans ce mémoire est basée sur une extension de la théorie classique de la commande supervisée. Le modèle de commande synthétisé est représenté par un automate temporisé. Celui-ci indique les dates d'occurrence auxquelles les événements contrôlables intervenant dans le fonctionnement du système doivent être exécutés. On notera que l'on s'affranchit ici de l'aspect hybride du système. Les résultats de la synthèse sont optimaux. Les résultats de recherche de ce travail peuvent s'appliquer aussi bien au pilotage des systèmes de production qu'au contrôle des flux dans un procédé batch.
APA, Harvard, Vancouver, ISO, and other styles
4

Tomasini, Linda. "Apprentissage d'une représentation statistique et topologique d'un environnement." Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0024.

Full text
Abstract:
Cette thèse porte sur l'apprentissage d'une représentation d'un environnement par un réseau de neurones. L’algorithme d'apprentissage non supervisé que nous proposons est basé sur l'identification d'un mélange de gaussiennes et est mis en œuvre sur une carte topologique du type de celles de Kohonen. Une relation formelle est établie avec les algorithmes de classification automatique floue. Nous traitons ensuite deux applications directes de cet algorithme à la vision artificielle: en segmentation d'images par analyse de texture et en imagerie médicale pour la visualisation de données tomographiques de débit sanguin cérébral. Dans la dernière partie, deux architectures hybrides sont définies dans les buts d'apprendre, respectivement, une suite récurrente et les corrélations entre deux variables représentées sur deux cartes topologiques. Dans les deux cas, l'apprentissage fait coopérer l'algorithme précédent de classification automatique avec une règle d'apprentissage supervisée.
APA, Harvard, Vancouver, ISO, and other styles
5

Chabiron, Olivier. "Apprentissage d'arbres de convolutions pour la représentation parcimonieuse." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30213/document.

Full text
Abstract:
Le domaine de l'apprentissage de dictionnaire est le sujet d'attentions croissantes durant cette dernière décennie. L'apprentissage de dictionnaire est une approche adaptative de la représentation parcimonieuse de données. Les méthodes qui constituent l'état de l'art en DL donnent d'excellentes performances en approximation et débruitage. Cependant, la complexité calculatoire associée à ces méthodes restreint leur utilisation à de toutes petites images ou "patchs". Par conséquent, il n'est pas possible d'utiliser l'apprentissage de dictionnaire pour des applications impliquant de grandes images, telles que des images de télédétection. Dans cette thèse, nous proposons et étudions un modèle original d'apprentissage de dictionnaire, combinant une méthode de décomposition des images par convolution et des structures d'arbres de convolution pour les dictionnaires. Ce modèle a pour but de fournir des algorithmes efficaces pour traiter de grandes images, sans les décomposer en patchs. Dans la première partie, nous étudions comment optimiser une composition de convolutions de noyaux parcimonieux, un problème de factorisation matricielle non convexe. Ce modèle est alors utilisé pour construire des atomes de dictionnaire. Dans la seconde partie, nous proposons une structure de dictionnaire basée sur des arbres de convolution, ainsi qu'un algorithme de mise à jour de dictionnaire adapté à cette structure. Enfin, une étape de décomposition parcimonieuse est ajoutée à cet algorithme dans la dernière partie. À chaque étape de développement de la méthode, des expériences numériques donnent un aperçu de ses capacités d'approximation
The dictionary learning problem has received increasing attention for the last ten years. DL is an adaptive approach for sparse data representation. Many state-of-the-art DL methods provide good performances for problems such as approximation, denoising and inverse problems. However, their numerical complexity restricts their use to small image patches. Thus, dictionary learning does not capture large features and is not a viable option for many applications handling large images, such as those encountered in remote sensing. In this thesis, we propose and study a new model for dictionary learning, combining convolutional sparse coding and dictionaries defined by convolutional tree structures. The aim of this model is to provide efficient algorithms for large images, avoiding the decomposition of these images into patches. In the first part, we study the optimization of a composition of convolutions with sparse kernels, to reach a target atom (such as a cosine, wavelet or curvelet). This is a non-convex matrix factorization problem. We propose a resolution method based on a Gaus-Seidel scheme, which produces good approximations of target atoms and whose complexity is linear with respect to the image size. Moreover, numerical experiments show that it is possible to find a global minimum. In the second part, we introduce a dictionary structure based on convolutional trees. We propose a dictionary update algorithm adapted to this structure and which complexity remains linear with respect to the image size. Finally, a sparse coding step is added to the algorithm in the last part. For each evolution of the proposed method, we illustrate its approximation abilities with numerical experiments
APA, Harvard, Vancouver, ISO, and other styles
6

Ternisien, Eric. "Caractérisation aveugle d'un système de dispersion en représentation d'état et localisation de source." Littoral, 2001. http://www.theses.fr/2001DUNK0067.

Full text
Abstract:
Dans cette étude, nous abordons la localisation d'une source émettant un signal inconnu dans un milieu de propagation selon le modèle d'advection-diffusion. Les paramètres d'advection sont supposés connus, alors que les paramètres de diffusion sont inconnus et difficilement mesurables. L'image du signal source déformé par la propagation est délivrée par un ensemble de capteurs spatialement répartis. Les observations sont entachées de bruits i. I. D. Gaussiens. Nous avons montré que pour une classe de modèle, il est possible, après discrétisation par les différences finies, d'obtenir un modèle d'état discret où la matrice d'évolution A caractérise la propagation. Certains paramètres de A sont à identifier. De même, la matrice B caractérisant le placement de la source, est complètement inconnue. La matrice C définit l'architecture du réseau de capteurs. Chaque transfert source-capteur est ensuite approché par un filtre R. I. F. Inconnu. L'identification aveugle consiste à estimer  conditionnellement à une position test de la source. La méthode des sous-espaces, basée sur la décomposition en sous-espace bruit et sous espace signal permet l'identification des réponses impulsionnelles source-capteur. La localisation se ramène alors à une procédure itérative d'estimation aveugle et de décision visant la maximisation d'un critère de localisation. Plusieurs critères temporels et fréquentiels ont été abordés. Cette approche étant sensible au nombre de positions potentielles de source, une technique de prélocalisation réduit l'espace de recherche en exploitant l'intercorrélation des observations et le schéma de propagation numérique. L'utilisation du modèle de propagation dans les cas rééls de surveillance de la pollution atmosphérique où les paramètres véliques sont variables et connus, a conduit à étudier l'identification aveugle non stationnaire. On montre ici que la difficulté se ramène à la détermination d'un estimateur consistant de la matrice d'autocorrélation
This study deals with the localization of a source which emits an unknown signal in a propagation medium thanks to a scattering model. In this model, the advection parameters are supposed to be known, but the diffusion ones are unknown and hard to measure. The source signal distorted by the propagation is provided by a set of spatially distributed sensors. These observations are disturbed by Gaussian iid noises. We show for some kind of model, the possibility to obtain a discrete state-space model using the finite differences, where the evolution matrix A describes the propagation. Some of the matrix A parameters needs to be identified. In the same way, the matrix B that characterizes the source placement is completely unknown. The matrix C describes the sensor array architecture. Each source-sensor channel is approximated by an unknown FIR filter. The blind identification consists in estimating  conditionnally to a source position. The subspace method, based on the decomposition in signal and noise subspaces, leads to the identification of the impulse responses of the channels. The localization is the reduced to an iterative process of blind identification and decision in order to maximize a localization criterion. A few temporal and frequential criterions have been developed. This approach depends on the size of the potential source positions set, but an initial localization method allows a size reduction of this set by means of observations crosscorrelations and numerical propagation scheme. The use of a propagation model in a real case of atmospheric pollution where the wind parameters are variable but known, leads to study the non stationary blind identification problem. We show that the difficulty is reduced to the search of a consistent estimator of the autocorrelation matrix
APA, Harvard, Vancouver, ISO, and other styles
7

Boimond, Jean-Louis. "Commande à modèle interne en représentation d'état. : Problèmes de synthèse d'algorithme de commande." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0102.

Full text
Abstract:
Les travaux présentés dans ce mémoire portent sur l'étude de la commande à modèle interne (C. M. I. ). Le premier chapitre présente les principales propriétés de cette structure qui allie les avantages de la commande en boucle ouverte (correcteur proche de l'inverse du modèle) et de la boucle fermée (prise en compte des erreurs de modélisation et des perturbations extérieures). Une rapide comparaison est faite avec la commande en boucle fermée. Dans le second chapitre, un critère de précision asymptotique est introduit. Les conditions que doivent vérifier les différents blocs de la C. M. I. Pour annuler l'erreur asymptotique entre la sortie du procédé et la consigne, lorsque celle-ci est polynomiale d'ordre donne, sont établies. Le correcteur est interprété comme un inverse approche du modèle. En temps discret, l'utilisation de formes R. I. F. (réponse impulsionnelle finie) permet la synthèse d'un correcteur stable et réalisable. Le chapitre trois traite le problème de l'inversion du modèle en temps discret et dans l'espace d'état, ce qui permet de considérer certaines classes de modèles linéaires à paramètres variables, ou non-linéaires en l'état, linéaires en la commande. Le correcteur est décomposé en deux parties: l'une calcule la commande en fonction de l'état du modèle et de l'objectif visé, l'autre prédit la consigne. La précision asymptotique est assurée pour des consignes polynomiales d'ordre donne. Le dernier chapitre présente la synthèse d'une C. M. I. Basée sur l'utilisation du correcteur précédent. Le filtre de robustesse devient un prédicteur d'écart dont la dynamique est ajustée en fonction de la connaissance de la désadaptation modèle-procédé. Deux approches de synthèse du filtre sont proposées. L'une est identique à celle utilisée pour le predicteur de consigne. Dans l'autre, on remplace la notion habituelle de filtrage par une mesure de la qualité de la prédiction
[The works presented in this thesis concern the Internal Model Control (I. M. C. ). The first part presents the main properties of this structure which combines the advantages of open-loop scheme (the controller is an approximate inverse of the model) and closed-loop structure (ability to cope with modelling errors and unmeasured disturbances). A comparison with the conventional closed-loop is briefly presented. In the second part, an asymptotic precision criterion is introduced; The conditions that are to be verified by the blocks of the I. M. C. , for zeroing the asymptotic error between the output and a polynomial input, are settled down. The controller is interpreted as an approximate inverse of the model. In discrete time, the use of F. I. R. (Finite Impulse Response) forms permits the synthesis of a stable and realisable controller. The third part deals with the problem of the model inversion in discrete time and in state space. It allows us to consider some vary linear or non-linear models, which are linear versus the control variable. The controller is decomposed in two parts: the first one generates the control variable in terms of model state and the reference objective, the second one generates the prediction of the reference signal. Asymptotic accuracy is guaranteed for reference inputs that are polynomial, with a given order, versus time. The last part presents the synthesis of an I. M. C. Based on the use of the above controller. The robustness filter becomes a predictor of the error between plant and model outputs, the dynamic of which is tuned according to the knowledge of the plant-model mismatch. Two approaches have been proposed to built in this filter. The first one uses the same technique as for the reference predictor. In the other, the usual notion of filtering is replaced by a measure of the prediction quality. ]
APA, Harvard, Vancouver, ISO, and other styles
8

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Full text
Abstract:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
APA, Harvard, Vancouver, ISO, and other styles
9

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066040.pdf.

Full text
Abstract:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
APA, Harvard, Vancouver, ISO, and other styles
10

LERCH, CHRISTOPHE. "Une nouvelle représentation du contrôle organisationnel : le pilotage des processus." Université Louis Pasteur (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR1EC01.

Full text
Abstract:
La crise de l'instrumentation de gestion apparue au debut des annees 80 peut etre interpretee comme une crise des modes de representation de l'organisation. Cette these propose en reponse une reflexion sur le controle organisationnel a partir d'une modelisation a base d'activites. En premier lieu, l'analyse porte sur la construction de representations graphiques, modelisant de maniere specifique le comportement des activites reelles d'une organisation. Notre etude identifie certaines limites des outils de modelisation fonctionnels les plus couramment employes, et propose des solutions palliatives fondees sur une modelisation cognitive de l'activite. En second lieu, nous developpons une typologie qui permet d'analyser la diversite des processus a l'aide de trois ideotypes : les processus structures, les processus semi-structures et les processus non- structures. Ces configurations se distinguent notamment par leur strategie d'adaptation a l'environnement et leur structure de pilotage. Cette conceptualisation constitue un langage visant a faciliter la realisation d'un diagnostic sur le fonctionnement des processus. Notre recherche aboutit a la construction d'un tableau de bord dont le but est d'inflechir les mecanismes collectifs d'adaptation et de creation des connaissances des processus. Nous mettons en evidence a la fois des leviers d'action qui agissent sur ces mecanismes et les risques potentiels de blocages de la dynamique d'apprentissage inherents a leur utilisation. Finalement, le controle des processus apparait comme un moyen de mobiliser l'attention cognitive des operateurs vers l'exploration des savoirs de comprehension portant sur des problemes mal elucides ayant une importance strategique pour l'organisation. Il permet en contre-partie d'economiser l'attention des membres de l'organisation en optant pour l'exploitation des connaissances factuelles et des savoir-faire techniques portant sur des problemes de moindre importance ou deja bien elucides
The crisis of management instrumentation wich appeared in the 80's can be interpreted as a crisis of the representation modes of organization. Therfore this thesis offers some thoughts on the type of organization aimed at controlling, starting from a model based an activities. First, we use graphical representations in order to model the activities of organisations in applied cases. Our analysis identifies some limits the functional tools which are most frequently used. We then suggest some solutions by resorting to a cognitive representation of the activities. Secondly, we develop a typology which structures the diversity of the processes. We distinguish three categories : the structured process, the semi-structured process, the non structured process. Those configurations can in particular be differentiated by their strategies of environmental adaptation and their structure of management. The objective to provide a language so as to facilitate the diagnosis on the functioning of the processes. Our study resulted in devising a dashboard intended to drive the collective mechanisms of adaptation and knowledge creation. Our analysis emphasises both the parameters of control of these mechanisms and the impact of those parameters on the dynamic of the learning processes. Finally, managing the processes appears to be a way to mobilise the cognitive attention of the actors of the organisation. The point is especially important when the operators have to solve radically new problems of strategic importance for the organisation and thus need to explore new. Fields of knowledge. Conversely, managing the processes helps to save the cognitive resources of the organisation in situations where the members have to solve well-defined and well-known problems by exploiting available and explicit knowledge
APA, Harvard, Vancouver, ISO, and other styles
11

Scherrer, Bruno. "Apprentissage de représentation et auto-organisation modulaire pour un agent autonome." Phd thesis, Université Henri Poincaré - Nancy I, 2003. http://tel.archives-ouvertes.fr/tel-00003377.

Full text
Abstract:
Cette thèse étudie l'utilisation d'algorithmes connexionnistes pour résoudre des problèmes d'apprentissage par renforcement. Les algorithmes connexionnistes sont inspirés de la manière dont le cerveau traite l'information : ils impliquent un grand nombre d'unités simples fortement interconnectées, manipulant des informations numériques de manière distribuée et massivement parallèle. L'apprentissage par renforcement est une théorie computationnelle qui permet de décrire l'interaction entre un agent et un environnement : elle permet de formaliser précisément le problème consistant à atteindre un certain nombre de buts via l'interaction.

Nous avons considéré trois problèmes de complexité croissante et montré qu'ils admettaient des solutions algorithmiques connexionnistes : 1) L'apprentissage par renforcement dans un petit espace d'états : nous nous appuyons sur un algorithme de la littérature pour construire un réseau connexionniste ; les paramètres du problème sont stockés par les poids des unités et des connexions et le calcul du plan est le résultat d'une activité distribuée dans le réseau. 2) L'apprentissage d'une représentation pour approximer un problème d'apprentissage par renforcement ayant un grand espace d'états : nous automatisons le procédé consistant à construire une partition de l'espace d'états pour approximer un problème de grande taille. 3) L'auto-organisation en modules spécialisés pour approximer plusieurs problèmes d'apprentissage par renforcement ayant un grand espace d'états : nous proposons d'exploiter le principe "diviser pour régner" et montrons comment plusieurs tâches peuvent être réparties efficacement sur un petit nombre de modules fonctionnels spécialisés.
APA, Harvard, Vancouver, ISO, and other styles
12

Delteil, Alexandre. "Représentation et apprentissage de concepts et d'ontologies pour le web sémantique." Nice, 2002. http://www.theses.fr/2002NICE5786.

Full text
Abstract:
Nous présentons dans cette thèse des langages de représentation des connaissances pour le Web Sémantique, dans l'objectif de fournir une expressivité supérieure aux formalismes actuels comme RDF(S). Le premier langage est une extension de RDF(S) fondée sur les Graphes Conceptuels Simples. Le deuxième langage, GDL, intègre à la fois les caractéristiques des Graphes Conceptuels (GCs) et des Logiques de Description (LDs). Par rapport aux GCs, ce langage peut être vu comme la clôture des GCs sous les opérateurs booléens. Par rapport aux LDs, GDL peut être vu comme la généralisation de ALC permettant de définir n'importe quel motif graphique dans les définitions de concepts. Dans l'objectif de mettre à jour et enrichir les ontologies, nous proposons un algorithme incrémental d'apprentissage de concepts et d'ontologie pour le Web Sémantique. Notre algorithme classe les objets d'une façon systématique selon les motifs relationnels qui les décrivent.
APA, Harvard, Vancouver, ISO, and other styles
13

Aldea, Emanuel. "Apprentissage de données structurées pour l'interprétation d'images." Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0053.

Full text
Abstract:
La plupart des méthodes de classification d’images s'appuient en premier lieu sur les attributs des objets d'intérêt. Cependant, les informations spatiales liées aux relations entre ces objets sont également utiles, comme cela a été montré en segmentation et reconnaissance de structures dans les images, et leur intégration dans des méthodes d'apprentissage et de classification commence à apparaître et évoluer. Les modélisations floues permettent de représenter à la fois l'imprécision de la relation et le passage graduel de la satisfaction à la non satisfaction de cette relation. L'objectif de ce travail est d'explorer les techniques de représentation de l’information spatiale et leur intégration dans les classifieurs d'images qui utilisent les noyaux de graphes. Nous justifions le choix de graphes étiquetés pour représenter les images dans le contexte de l'apprentissage SVM, ainsi que les adaptations nécessaires par rapport aux domaines connexes. A partir des mesures d’adjacence floues entre les objets d'intérêt, nous définissons une famille de représentations de graphes déterminés par des seuils différents appliqués à ces mesures spatiales. Enfin, nous employons plusieurs noyaux dans un apprentissage multiple afin de mettre en place des classifieurs qui peuvent tenir compte des différentes représentations graphiques de la même image à la fois. Les résultats montrent que l'information spatiale complète les caractéristiques visuelles des éléments distinctifs dans les images et que l'adaptation des fonctions noyau pour les représentations spatiales floues est bénéfique en termes de performances
Image interpretation methods use primarily the visual features of low-level or high-level interest elements. However, spatial information concerning the relative positioning of these elements is equally beneficial, as it has been shown previously in segmentation and structure recognition. Fuzzy representations permit to assess at the same time the imprecision degree of a relation and the gradual transition between the satisfiability and the non-satisfiability of a relation. The objective of this work is to explore techniques of spatial information representation and their integration in the learning process, within the context of image classifiers that make use of graph kernels. We motivate our choice of labeled graphs for representing images, in the context of learning with SVM classifiers. Graph kernels have been studied intensively in computational chemistry and biology, but an adaptation for image related graphs is necessary, since image structures and properties of the information encoded in the labeling are fundamentally different. We illustrate the integration of spatial information within the graphical model by considering fuzzy adjacency measures between interest elements, and we define a family of graph representations determined by different thresholds applied to these spatial measures. Finally, we employ multiple kernel learning in order to build up classifiers that can take into account different graphical representations of the same image at once. Results show that spatial information complements the visual features of distinctive elements in images and that adapting the discriminative kernel functions for the fuzzy spatial representations is beneficial in terms of performance
APA, Harvard, Vancouver, ISO, and other styles
14

Fusty-Raynaud, Sylvie. "Apprentissage et dysfonctionnement du langage écrit et représentation motrice de la parole." Paris 8, 2007. http://octaviana.fr/document/145514919#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Les travaux sur le lecteur expert, l'apprentissage de la lecture et ses dysfonctionnements ne conduisent ni à une définition homogène des sujets dyslexiques ni à une méthodologie cohérente de remédiation. Cette thèse propose d'analyser les problèmes d'apprentissage de la lecture sous un angle nouveau. Plutôt que de considérer le comportement du lecteur expert, elle examine les contraintes que le système alphabétique impose au sujet apprenant et les ressources qu'il mobilise en lui. Plutôt que d'examiner les caractéristiques du sujet dyslexique, elle observe comment la remédiation est conduite et adaptée en fonction de chaque sujet et comment elle agit sur lui. Le système alphabétique est fondé sur l'association graphème / phonème. Le phonème se définit essentiellement en termes articulatoires et non en termes acoustiques. La maîtrise de la lecture s'appuie donc en premier lieu sur la représentation motrice de la parole qui constitue le traitement actif permettant la connexion entre représentation visuelle et représentation auditive. La remédiation des troubles de la lecture est fondée sur l'oralisation. Cette dernière constitue le principe actif de toute rééducation, non parce qu'elle sonorise l'écrit, mais parce qu'elle permet au sujet de retrouver les gestes de parole symbolisés par les graphèmes. De ce point de vue, ce ne sont pas les dyslexiques, mais les normolecteurs qui ont une structure cognitive commune. Elle correspond à l'empreinte du système alphabétique qui génère une représentation audio-visuo-grapho-phonatoire de la parole
Data about expert reader, reading learning and reading disabilities lead neither to a homogeneous definition of dyslexics nor a coherent methodology of remediation. This thesis aims to analyse reading learning difficulties in a new way. Rather than considering the good reader's behavior, we examine the constraints imposed and the resources required by alphabetic system. Rather than examine the dyslexic’s characteristics, we observe how the remediation is adapted to the subjects and influences them. The alphabetic system is based on grapheme / phoneme association. The phoneme is defined by articulatory more than acoustic features. Thus, reading is primarily based on speech-motor representation which actively connects visual and auditory representations. Learning disabilities remediation is based on oral realization, which is the active principle of each remediation program, as it enables readers to recognize speech gesture symbolised by graphemes. Thus it appears that the normal readers and not the dyslexics share a cognitive structure which corresponds to the alphabetic system mark, generating an audio-visuo-grapho-phonatory representation of speech
APA, Harvard, Vancouver, ISO, and other styles
15

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066324/document.

Full text
Abstract:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
APA, Harvard, Vancouver, ISO, and other styles
16

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066324.

Full text
Abstract:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
APA, Harvard, Vancouver, ISO, and other styles
17

Perez, Asher. "Développements diagrammatiques pour un plasma quantique dans la représentation de Feynman-Kac." Lyon 1, 1994. http://www.theses.fr/1994LYO10024.

Full text
Abstract:
Ce travail s'inscrit dans le cadre de l'etude des plasmas quantiques composes d'electrons et de noyaux interagissant via le potentiel de coulomb. Dans ce contexte, la derivation d'une equation d'etat par un developpement systematique en densite est utile. Dans une premiere partie, nous passons en revue les proprietes d'equilibre et les differents formalismes existant pour les systemes coulombiens classiques et quantiques. Nous enchainons, dans une seconde partie, sur notre formalisme donnant une representation diagrammatique des quantites d'equilibre, qui est l'analogue du developpement d'abe-meeron employe dans le cas des systemes classiques. Notre methode, developpee dans le cadre de l'ensemble grand-canonique, est basee sur la representation de feynman-kac de l'integrale de chemin qui etablit l'equivalence entre un systeme quantique constitue de charges ponctuelles et un systeme classique forme de filaments. Ce formalisme nous permet de calculer d'une maniere exacte et coherente l'ensemble des corrections au gaz parfait (termes classiques a la debye-huckel, diffraction, diffusion, etats lies et termes d'echange lies a la statistique des particules). La pression obtenue est calculee de facon explicite jusqu'a une puissance 5/2 en densite. Dans une troisieme partie, nous abordons l'etude qualitative de cette equation et discutons du domaine de validite du developpement en densite en fonction de la temperature et de la densite totale. Trois regimes sont clairement mis en evidence: une limite de tres basse densite ou les effets classiques de type debye predominent, un regime de densite intermediaire ou les corrections classiques et quantiques sont comparables et une region de densite elevee ou les corrections d'echange l'emportent sur tous les autres effets. Pour illustration, cette equation d'etat tronquee a ete appliquee au cas du soleil
APA, Harvard, Vancouver, ISO, and other styles
18

Videcoq, Etienne. "Problèmes inverses en diffusion thermique instationnaire : résolution par représentation d'état et apport de la réduction de modèle." Poitiers, 1999. http://www.theses.fr/1999POIT2355.

Full text
Abstract:
Cette etude concerne la resolution de problemes inverses en diffusion thermique: il s'agit d'identifier des termes sources ou des conditions aux limites variant avec le temps a partir d'evolutions de temperature en certains points du milieu. Nous montrons comment la modelisation du systeme, mise sous forme de representation d'etat, est plus particulierement adaptee: elle permet de relier de facon formelle les sollicitations thermiques aux temperatures observees. En utilisant un modele detaille d'ordre eleve (notamment, dans les cas 3d), cette representation devient tres penalisante. Nous proposons alors l'inversion par un modele reduit. Ce dernier est obtenu, avec l'hypothese de linearite, par l'identification d'une base modale equivalente du systeme etudie. Apres avoir presente des validations numeriques de la methode de reduction sur des cas complexes, les algorithmes d'inversion sont developpes. Les methodes de specification de fonction (beck) et de regularisation par penalisation (tikhonov) sont associees aux equations d'etat d'origine ou au modele reduit. Une methodologie d'analyse des sensibilites en regimes statique et transitoire permet de mieux apprehender le caractere mal pose du probleme. Des applications 2d et 3d viennent illustrer l'aspect theorique. Une validation experimentale de la methodologie est egalement proposee: il s'agit d'un milieu diffusif 3d dans lequel sont implantes des sources thermiques ainsi que des thermocouples. Dans un premier temps, nous identifions un modele reduit a partir de thermogrammes de relaxation. Cette modelisation experimentale, basee sur des reponses a des echelons, ne necessite pas la connaissance des proprietes thermophysiques et elle constitue un etalonnage qui permet ensuite d'inverser les mesures. Nous montrons par exemple comment l'identification simultanee de 5 sources est possible a partir des evolutions de temperature en 5 points.
APA, Harvard, Vancouver, ISO, and other styles
19

Prudhomme, Elie. "Représentation et fouille de données volumineuses." Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20048/document.

Full text
Abstract:
Le stockage n'étant plus soumis à des contraintes de coût importantes, les systèmes d'information collectent une quantité croissante de données, souvent via des processus d'acquisition automatique. En parallèle, les objets d'intérêt sont devenus plus complexes. C'est le cas, par exemple, des images, du texte ou encore des puces à ADN. Pour leur analyse, les méthodes d'apprentissage doivent alors prendre en compte l'augmentation massive et conjointe du nombre d'exemples et d'attributs qui en résultent. Or, les outils classiques de l'apprentissage automatique ne sont pas toujours adaptés à ce changement de volumétrie tant au niveau de leur complexité algorithmique que pour appréhender la structure des données. Dans ce contexte de données volumineuses en apprentissage supervisé, nous nous sommes intéressés à l'extraction de deux catégories de connaissances, conjointement à la prédiction, la première relative à l'organisation des exemples entre eux et la seconde relative aux interactions qui existent entre les attributs. Pour nous intéresser aux relations entre les exemples, nous définissons le concept de représentation en apprentissage supervisé comme une modélisation et une visualisation des données à la fois du point de vue de la proximité entre les exemples et du lien entre la position des exemples et leur étiquette. Parmi les différents algorithmes recensés qui conduisent à l'obtention d'une telle représentation, nous retenons les cartes auto-organisatrices qui présentent la plus faible complexité algorithmique, ce qui les rend adaptées aux données volumineuses. L'algorithme des cartes auto-organisatrices étant nonsupervis é, nous proposons une adaptation à l'apprentissage supervisé par le biais des cartes étiquetées (Prudhomme et Lallich, 2005b). Nous montrons également qu'il est possible de valider statistiquement la qualité de la représentation obtenue par une telle carte (Prudhomme et Lallich, 2005a). Les statistiques que nous proposons sont corrélées avec le taux d'erreur en généralisation, ce qui permet de juger a priori de la qualité de la prédiction qui résulte de la carte. Néanmoins, la prédiction des cartes auto-organisatrices n'est pas toujours satisfaisante face à des données en grandes dimensions. Dans ce cas, nous avons recours aux méthodes ensemblistes. Ces méthodes agrègent la prédiction de plusieurs classifieurs simples. En créant une certaine diversité entre les prédictions de ces classifieurs, les méthodes ensemblistes améliorent la prédiction qui aurait été obtenue par un seul classifieur. Pour créer cette diversité, nous apprenons chaque classifieur simple (dans notre cas, des cartes auto-organisatrices) sur un sous-espace de l'espace d'apprentissage. La diversité est ainsi l'occasion de diminuer la dimensionnalité du problème. Afin de choisir au mieux les sous-espaces, nous nous sommes inspirés des connaissances théoriques disponibles sur la répartition de l'erreur en généralisation d'un ensemble. Nous avons alors proposé deux heuristiques. La première heuristique est non-supervisée. Elle repose sur l'interprétation des corrélations entre attributs pour déterminer les sous-espaces à apprendre (Prudhomme et Lallich, 2007). La seconde heuristique, au contraire, est supervisée. Elle optimise par un algorithme génétique une mesure de l'erreur d'un ensemble en fonction de l'erreur des classifieurs qui le composent (Prudhomme et Lallich, 2008b). Ces deux heuristiques conduisent à des ensembles de cartes (ou des comités de cartes) dont l'erreur en généralisation est plus faible que celle d'une carte seule apprise sur la totalité des attributs. Néanmoins, ils conduisent également à une multitude de représentations. Pour proposer une seule représentation à l'issue de l'apprentissage, nous introduisons la notion de stacking géographique. (...)
/
APA, Harvard, Vancouver, ISO, and other styles
20

Arneton, Mélissa. "Bilinguisme et apprentissage des mathématiques : études à la Martinique." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN21009/document.

Full text
Abstract:
Cette thèse part du constat selon lequel les élèves domiens obtiennent, depuis plusieurs années déjà, des résultats inférieurs à ceux des élèves métropolitains aux évaluations nationales; le plus étonnant est que les écarts observés sont plus importants en mathématiques qu'en français. Nous nous intéressons alors à des caractéristiques culturelles (le bilinguisme et les représentations collectives) susceptibles d'influencer les apprentissages scolaires, dans un département français que l'on peut considérer comme un "laboratoire naturel": la Martinique. Quatre études sont menées auprès de deux niveaux scolaires (en cours élémentaire et en 6ème). La première étude consiste en analyses secondaires des données des évaluations nationales, portant sur plusieurs années. Elles confirment la réalité du constat posé éliminent l'hypothèse d'une difficulté particulière dans un champ spécifique des mathématiques (par exemple, la géométrie) et celle d'un biais d'items. La seconde étude, à travers un dispositif expérimental permettant 1) de mesurer le bilinguisme dans ses versants social et cognitif des élèves martiniquais 2) d'évaluer de façon diverse les performances des enfants en mathématiques et 3) de recueillir leurs résultats aux évaluations nationales, réfute l'hypothèse de l'influence du bilinguisme sur les apprentissages. La troisième étude s'intéresse alors au lien entre les représentations culturelles (et plus spécifiquement les représentations des enfants quant aux disciplines scolaires) et leurs performances. Les résultats obtenus ne permettent pas de conclure que les enfants martiniquais ont des représentations moins favorables envers les mathématiques que les enfants métropolitains. La dernière étude compile des données recueillies lors des dispositifs précédents afin de renforcer l'hypothèse réfutée quant à l'influence du bilinguisme français / créole sur les apprentissages. Tout en interprétant ces résultats, nous proposons enfin des pistes de réflexion que ce soit au niveau de la méthodologie et des instruments utilisés dans cette étude, ou au niveau d'autres pistes culturelles à explorer
In this thesis, we try to explain why French overseas pupils have got, for many years, inferior performances to their mainland French school fellows at national academic evaluations. The most surprising is that the observed differences are stronger in mathematics than in French. Then, we focus on the cultural characteristics (bilingualism and collective beliefs) able to influence the school learning, in a French Overseas Department considered as a ?natural laboratory?: Martinique. We carry out four studies with two educational levels (in elementary school and first year of the secondary school). In the first study, we make side analysis of several years' national academic data. They acknowledge the observation as a reality and they invalidate two hypotheses, one to a specific difference in a particular field of mathematics (in geometry for example) and a second relative to an item differential functioning. In the second study, an experimental procedure allows 1) to measure social and cognitive bilingualism of Martinican pupils, 2) to evaluate with different procedures the children performances in mathematics and 3) to collect their scores at national evaluations. This second study refutes the hypothesis of the influence of bilingualism on academic learning. In the third study, we deal with the link between social beliefs (specifically the children?s beliefs of the school disciplines) and their performances. The results do not allow to conclude that the martinican children have worst beliefs of the mathematics than the French mainland children. In the last study, we compile data collected in the precedent analysis, in order to refute the bilingualism?s influence on the school learning. Finally, in the same time, we explain our observations and we submit considered perspectives relatives, for one part, to methodology and the instruments used in this research and, for the second part, to others cultural perspectives, which could be explore
APA, Harvard, Vancouver, ISO, and other styles
21

Tremblay, Guillaume. "Optimisation d'ensembles de classifieurs non paramétriques avec apprentissage par représentation partielle de l'information." Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/716/1/TREMBLAY_Guillaume.pdf.

Full text
Abstract:
L'un des défis de la reconnaissance de formes (RF) est de concevoir des systèmes à la fois simples (peu de paramètres, faible coût de calcul) et performants (haut taux de reconnaissance). Il est démontré que les ensembles de classifieurs (EoC) peuvent permettre d'obtenir de meilleures performances qu'un classifieur unique, d'où la recherche d'un compromis entre simplicité et performance. L'utilisation de classifieurs non paramétriques de type k-NN ayant une représentation partielle de l'information favorise toutefois la simplicité d'un système de RF. Dans le présent travail, nous avons utilisé un tel ensemble de k-NN pour vérifier s'il était possible de concevoir des EoC par sélection de classifieurs pour améliorer la simplicité tout en augmentant la performance du système. L'utilisation d'un algorithme d'optimisation pouvant explorer de grands espaces mal définis est nécessaire pour atteindre cet objectif. Afin d'aider la recherche, différentes mesures de «diversité» sont proposées dans la littérature. Nous avons tenté d'optimiser un EoC à l'aide de différentes méthodes de recherche et avons testé l'effet de la maximisation conjointe de la performance avec un échantillon des mesures de diversité les plus populaires. Toutes les expériences ont été répétées 30 fois de façon à pouvoir comparer, à l'aide de tests statistiques, les différentes approches évaluées. Nous avons découvert que la maximisation conjointe de la simplicité et de la performance était la meilleure façon de créer un ensemble optimisant ces deux objectifs. Par contre, pour générer des ensembles ayant une performance maximale, l'utilisation d'un algorithme de recherche à un seul objectif est préférable. Contrairement à nos attentes, il n'a pas été possible de démontrer un avantage significatif à l'utilisation d'une mesure de diversité comme critère d'optimisation. À notre connaissance, c'était la première fois qu'était étudiée de manière exhaustive la façon de faire de la sélection de classifieurs de type k-NN basés sur le paradigme des sous-espaces aléatoires. L'application systématique de tests statistiques pour valider les résultats des stratégies de sélection de classifieurs a été rendue possible grâce à l'utilisation d'une grappe d'ordinateurs et à la création de base de données de votes précalculés. Cette validation statistique est rarement mise en oeuvre dans le domaine.
APA, Harvard, Vancouver, ISO, and other styles
22

Hay, Julien. "Apprentissage de la représentation du style écrit, application à la recommandation d’articles d’actualité." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG010.

Full text
Abstract:
La modélisation des utilisateurs est une étape essentielle lorsqu'il s'agit de recommander des produits et proposer des services automatiquement. Les réseaux sociaux sont une ressource riche et abondante de données utilisateur (p. ex. liens partagés, messages postés) permettant de modéliser leurs intérêts et préférences. Dans cette thèse, nous proposons d'exploiter les articles d'actualité partagés sur les réseaux sociaux afin d'enrichir les modèles existants avec une nouvelle caractéristique textuelle : le style écrit. Cette thèse, à l'intersection des domaines du traitement automatique du langage naturel et des systèmes de recommandation, porte sur l'apprentissage de la représentation du style et de son application à la recommandation d'articles d'actualité. Dans un premier temps, nous proposons une nouvelle méthode d'apprentissage de la représentation du texte visant à projeter tout document dans un espace stylométrique de référence. L'hypothèse testée est qu'un tel espace peut être généralisé par un ensemble suffisamment large d'auteurs de référence, et que les projections vectorielles des écrits d'un auteur « nouveau » seront proches, d'un point de vue stylistique, des écrits d'un sous-ensemble consistant de ces auteurs de référence. Dans un second temps, nous proposons d'exploiter la représentation stylométrique du texte pour la recommandation d'articles d'actualité en la combinant à d'autres représentations (p. ex. thématique, lexicale, sémantique). Nous cherchons à identifier les caractéristiques les plus complémentaires pouvant permettre une recommandation d'articles plus pertinente et de meilleure qualité. L'hypothèse ayant motivé ces travaux est que les choix de lecture des individus sont non seulement influencés par le fond (p. ex. le thème des articles d'actualité, les entités mentionnées), mais aussi par la forme (c.-à-d. le style pouvant, par exemple, être descriptif, satirique, composé d'anecdotes personnelles, d'interviews). Les expérimentations effectuées montrent que non seulement le style écrit joue un rôle dans les préférences de lecture des individus, mais aussi que, lorsqu'il est combiné à d'autres caractéristiques textuelles, permet d'augmenter la précision et la qualité des recommandations en termes de diversité, de nouveauté et de sérendipité
User modeling is an essential step when it comes to recommending products and offering services automatically. Social networks are a rich and abundant resource of user data (e.g. shared links, posted messages) that allow to model their interests and preferences. In this thesis, we propose to exploit news articles shared on social networks in order to enrich existing models with a new textual feature: the writing style. This thesis, at the intersection of the fields of natural language processing and recommender systems, focuses on the representation learning of writing style and its application to news recommendation. As a first step, we propose a new representation learning method that aims to project any document into a reference stylometric space. The hypothesis being tested is that such a space can be generalized by a sufficiently large set of reference authors, and that the vector projections of the writings of a "new" author will be stylistically close to the writings of a consistent subset of these reference authors. In a second step, we propose to exploit the stylometric representation for news recommendation by combining it with other representations (e.g. topical, lexical, semantic). We seek to identify the most relevant and complementary characteristics that can allow a more relevant and better quality recommendation of articles. The hypothesis that motivated this work is that the reading choices of individuals are not only influenced by the content (e.g. the theme of news articles, the entities mentioned), but also by the form (i.e. the style that can, for example, be descriptive, satirical, composed of personal anecdotes, interviews). The experiments conducted show that not only does writing style play a role in individuals' reading preferences, but also that, when combined with other textual features, it increases the accuracy and quality of recommendations in terms of diversity, novelty and serendipity
APA, Harvard, Vancouver, ISO, and other styles
23

Chevaleyre, Yann. "Apprentissage de règles à partir de données multi-instances." Paris 6, 2001. http://www.theses.fr/2001PA066502.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Soldano, Henry. "Apprentissage : Paradigmes, Structures et abstractions." Habilitation à diriger des recherches, Université Paris-Nord - Paris XIII, 2009. http://tel.archives-ouvertes.fr/tel-00514160.

Full text
Abstract:
L'ensemble des travaux présentés relève de l'Apprentissage Artificiel, et aborde l'apprentissage supervisé, ainsi que l'aide à la découverte par la fouille de données. On se place ici dans le cas où un problème d'apprentissage passe par l'exploration d'un "Espace de Recherche", constitué de représentations formées dans un certain langage d'énoncés. La structure cachée liant "énoncés" et sous-ensembles d'"objets", représentable dans un treillis intension/extension, permet en particulier de réduire l'espace de recherche dans les problèmes d'apprentissage supervisé. Je présente ensuite une forme d'"abstraction" ordonnée faisant varier le niveau de granularité des énoncés, ou des objets considérés, et garantissant que le treillis intension/extension est ainsi lui-même réduit. Certains travaux concernant la recherche de motifs séquentiels réquents, sont également interprétés du point de vue de cette relation intension/extension. Enfin, deux "paradigmes" nouveaux en apprentissage supervisé sont présentés, l'un traitant de la notion d'ambiguïté des exemples, l'autre étendant l'apprentissage supervisé cohérent dans un cadre collectif.
APA, Harvard, Vancouver, ISO, and other styles
25

Muhlenbach, Fabrice. "Evaluation de la qualité de la représentation en fouille de données." Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/muhlenbach_f.

Full text
Abstract:
L'extraction de connaissances à partir de données (ECD) cherche à produire de nouvelles connaissances utilisables en tirant parti des grandes bases de données. Avant de procéder à la phase de fouille de données, étapes phare de l'ECD, pour pouvoir opérer un apprentissage automatique, un ensemble de questions et de problèmes se posent : comment avoir a priori une idée de la manière dont les étiquettes de la variable à apprendre peuvent être séparées en fonction des variables prédictives ? comment traiter les bases pour lesquelles nous savons que des étiquettes sont fausses ? comment transformer des variables prédictives continues en variables discrètes en tenant compte globalement des informations de la variable à prédire ? Nous proposons diverses réponses à ces problèmes. Ces solutions exploitent les propriétés d'outils géométriques : les graphes de voisinage. Le voisinage entre des individus projetés dans un espace à p dimensions nous fournit un moyen de caractériser la ressemblance entre les exemples à apprendre. A partir de ceci, nous élaborons un test statistique basé sur le poids des arêtes qu'il faut retirer dans un graphe de voisinage pour n'avoir que des sous-graphes d'une seul étiquette, ce qui nous informe de la séparabilité a priori des classes. Nous prolongeons ces réflexions dans le cadre de la détection d'individus dont l'étiquette est douteuse : nous proposons une stratégie de suppression et de réétiquetage d'exemples douteux dans l'échantillon d'apprentissage afin d'augmenter la qualité des modèles prédictifs exploitant cet échantillon de données. Ces travaux sont étendus au cas particulier où la variable à prédire est numérique : nous présentons un test de structure pour la prédiction d'une telle variable. Enfin, nous présenton une méthode de discrétisation supervisée polythétique qui repose sur les graphes de voisinage et montrons ses performances en l'employant avec une méthode d'apprentissage supervisé que nous avons développée
Knowledge discovery tries to produce novel and usable knowledge from the databases. In this whole process, data mining is the crucial machine learning step but we must asked some questions first: how can we have an a priori idea of the way of the labels of the class attribute are separable or not? How can we deal with databases where some examples are mislabeled? How can we transform continuous predictive attributes in discrete ones in a supervised way by taking into account the global information of the data ? We propose some responses to these problems. Our solutions take advantage of the properties of geometrical tools: the neighbourhood graphs. The neighbourhood between examples projected in a multidimensional space gives us a way of characterising the likeness between the examples to learn. We develop a statistical test based on the weight of edges that we must suppress from a neighbourhood graph for having only subgraphs of a unique class. This gives information about the a priori class separability. This work is carried on in the context of the detection of examples from a database that have doubtful labels: we propose a strategy for removing and relabeling these doubtful examples from the learning set to improve the quality of the resulting predictive model. These researches are extended in the special case of a continuous class to learn: we present a structure test to predict this kind of variable. Finally, we present a supervised polythetic discretization method based on the neighbourhood graphs and we show its performances by using it with a new supervised machine learning algorithm
APA, Harvard, Vancouver, ISO, and other styles
26

Bouchard, Jacqueline. "Imagerie expérientielle, représentation de soi et éducation, la technologie au service de l'enseignement-apprentissage." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0015/MQ56393.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Baere, Campos Neves José Alberto. "Contribution à la construction automatique de représentation 3D d'objets solides." Compiègne, 1989. http://www.theses.fr/1989COMPD171.

Full text
Abstract:
Ce travail présente un système de construction automatique de représentations 3D d'objets solides, où sur les données d'entrée sont des images en niveaux de gris acquises sur l'objet. Dans une première étape nous construisons une représentation du volume occupée dans l'espace à partir de ces images. Ensuite nous déterminons une représentation approchée du type fil de fer de l'objet, utilisée pour affichage et pour la définition interactive de repères fonctionnels. Partant du code volumique de base, nous proposons un nouveau système de codage de la surface de l'objet. Cette représentation est ensuite segmentée en faces planes de l'objet dont nous déterminons et codons les contours.
APA, Harvard, Vancouver, ISO, and other styles
28

Gautheron, Léo. "Construction de Représentation de Données Adaptées dans le Cadre de Peu d'Exemples Étiquetés." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES044.

Full text
Abstract:
L'apprentissage automatique consiste en l'étude et la conception d'algorithmes qui construisent des modèles capables de traiter des tâches non triviales aussi bien ou mieux que les humains et, si possible, à un moindre coût.Ces modèles sont généralement entraînés à partir d'un ensemble de données où chaque exemple décrit une instance de la même tâche et est représenté par un ensemble de caractéristiques et un résultat ou étiquette que nous voulons généralement prédire.Un élément nécessaire au succès de tout algorithme d'apprentissage automatique est lié à la qualité de l'ensemble de caractéristiques décrivant les données, également appelé représentation des données.Dans l'apprentissage supervisé, plus les caractéristiques décrivant les exemples sont corrélées avec l'étiquette, plus le modèle sera efficace.Il existe trois grandes familles de caractéristiques : les caractéristiques ``observables'', les caractéristiques ``fabriquées à la main'' et les caractéristiques ``latentes'' qui sont généralement apprises automatiquement à partir des données d'entraînement.Les contributions de cette thèse s'inscrivent dans le cadre de cette dernière catégorie. Plus précisément, nous nous intéressons au cadre spécifique de l'apprentissage d'une représentation discriminatoire lorsque le nombre de données d'intérêt est limité.Un manque de données d'intérêt peut être constaté dans différents scénarios.Tout d'abord, nous abordons le problème de l'apprentissage déséquilibré avec une classe d'intérêt composée de peu d'exemples en apprenant une métrique qui induit un nouvel espace de représentation où les modèles appris ne favorisent pas les exemples majoritaires.Deuxièmement, nous proposons de traiter un scénario avec peu d'exemples disponibles en apprenant en même temps une représentation de données pertinente et un modèle qui généralise bien en boostant des modèles basés sur des noyaux et des caractéristiques de Fourier aléatoires.Enfin, pour traiter le scénario d'adaptation de domaine où l'ensemble cible ne contient pas d'étiquette alors que les exemples sources sont acquis dans des conditions différentes, nous proposons de réduire l'écart entre les deux domaines en ne conservant que les caractéristiques les plus similaires qui optimisent la solution d'un problème de transport optimal entre les deux domaines
Machine learning consists in the study and design of algorithms that build models able to handle non trivial tasks as well as or better than humans and hopefully at a lesser cost.These models are typically trained from a dataset where each example describes an instance of the same task and is represented by a set of characteristics and an expected outcome or label which we usually want to predict.An element required for the success of any machine learning algorithm is related to the quality of the set of characteristics describing the data, also referred as data representation or features.In supervised learning, the more the features describing the examples are correlated with the label, the more effective the model will be.There exist three main families of features: the ``observable'', the ``handcrafted'' and the ``latent'' features that are usually automatically learned from the training data.The contributions of this thesis fall into the scope of this last category. More precisely, we are interested in the specific setting of learning a discriminative representation when the number of data of interest is limited.A lack of data of interest can be found in different scenarios.First, we tackle the problem of imbalanced learning with a class of interest composed of a few examples by learning a metric that induces a new representation space where the learned models do not favor the majority examples.Second, we propose to handle a scenario with few available examples by learning at the same time a relevant data representation and a model that generalizes well through boosting models using kernels as base learners approximated by random Fourier features.Finally, to address the domain adaptation scenario where the target set contains no label while the source examples are acquired in different conditions, we propose to reduce the discrepancy between the two domains by keeping only the most similar features optimizing the solution of an optimal transport problem between the two domains
APA, Harvard, Vancouver, ISO, and other styles
29

Zeng, Tieyong. "Études de Modèles Variationnels et Apprentissage de Dictionnaires." Phd thesis, Université Paris-Nord - Paris XIII, 2007. http://tel.archives-ouvertes.fr/tel-00178024.

Full text
Abstract:
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Nous nous sommes intéressés aux différents aspects mathématiques et pratiques de ce genre de méthodes: modélisation, analyse de propriétés de la solution d'un modèle, analyse numérique, apprentissage du dictionnaire et expérimentation. Après le Chapitre 1, qui retrace les étapes les plus significatives de ce domaine, nous présentons dans le Chapitre 2 notre implémentation et les résultats que nous avons obtenus avec le modèle consistant à résoudre \begin{equation}\label{tv-inf} \left\{\begin{array}{l} \min_{w} TV(w), \\ \mbox{sous les contraintes } |\PS{w-v}{\psi}|\leq \tau, \forall \psi \in \DD \end{array}\right. \end{equation} pour $v\in\RRN$, une donnée initiale, $\tau>0$, $TV(\cdot)$ la variation totale et un dictionnaire {\em invariant par translation} $\DD$. Le dictionnaire est, en effet, construit comme toutes les translations d'un ensemble $\FF$ d'éléments de $\RRN$ (des caractéristiques ou des patchs). L'implémentation de ce modèle avec ce genre de dictionnaire est nouvelle. (Les auteurs avaient jusque là considéré des dictionnaires de paquets d'ondelettes ou de curvelets.) La souplesse de la construction du dictionnaire a permis de conduire plusieurs expériences dont les enseignements sont rapportés dans les Chapitre 2 et 3. Les expériences du Chapitre 2 confirment que, pour obtenir de bons résultats en débruitage avec le modèle ci-dessus, le dictionnaire doit bien représenter la courbure des textures. Ainsi, lorsque l'on utilise un dictionnaire de Gabor, il vaut mieux utiliser des filtres de Gabor dont le support est isotrope (ou presque isotrope). En effet, pour représenter la courbure d'une texture ayant une fréquence donnée et vivant sur un support $\Omega$, il faut que le support, en espace, des filtres de Gabor permette un ``pavage'' avec peu d'éléments du support $\Omega$. Dans la mesure o\`{u}, pour une classe générale d'images, le support $\Omega$ est indépendant de la fréquence de la texture, le plus raisonnable est bien de choisir des filtres de Gabor dont le support est isotrope. Ceci est un argument fort en faveur des paquets d'ondelettes, qui permettent en plus d'avoir plusieurs tailles de supports en espace (pour une fréquence donnée) et pour lesquelles \eqref{tv-inf} peut être résolu rapidement. Dans le Chapitre 3 nous présentons des expériences dans lesquels le dictionnaire contient les courbures de formes connues (des lettres). Le terme d'attache aux données du modèle \eqref{tv-inf} autorise l'apparition dans le résidu $w^*-v$ de toutes les structures, sauf des formes ayant servi à construire le dictionnaire. Ainsi, on s'attend à ce que les forment restent dans le résultat $w^*$ et que les autres structures en soient absente. Nos expériences portent sur un problème de séparation de sources et confirment cette impression. L'image de départ contient des lettres (connues) sur un fond très structuré (une image). Nous montrons qu'il est possible, avec \eqref{tv-inf}, d'obtenir une séparation raisonnable de ces structures. Enfin ce travail met bien en évidence que le dictionnaire $\DD$ doit contenir la {\em courbure} des éléments que l'on cherche à préserver et non pas les éléments eux-mêmes, comme on pourrait le penser na\"{\i}vement. Le Chapitre 4 présente un travail dans lequel nous avons cherché à faire collaborer la méthode K-SVD avec le modèle \eqref{tv-inf}. Notre idée de départ est d'utiliser le fait que quelques itérations de l'algorithme qu'il utilise pour résoudre \eqref{tv-inf} permettent de faire réapparaître des structures absentes de l'image servant à l'initialisation de l'algorithme (et dont la courbure est présente dans le dictionnaire). Nous appliquons donc quelques une de ces itérations au résultat de K-SVD et retrouvons bien les textures perdues. Ceci permet un gain visuel et en PSNR. Dans le Chapitre 5, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Celle-ci consiste à appliquer un algorithme du point proximal à ce modèle. L'intérêt est de transformer un problème convexe non-différentiable en une suite (convergeant rapidement) de problèmes convexes très réguliers. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Cet algorithme permet d'améliorer considérablement la qualité (en terme de parcimonie) de la solution par rapport à l'état de l'art concernant la résolution pratique du Basis Pursuit. Nous nous espérons que cet algorithme devrait avoir un impact conséquent dans ce domaine en rapide développement. Dans le Chapitre 6, nous adapte aux cas d'un modèle variationnel, dont le terme régularisant est celui du Basis Pursuit et dont le terme d'attache aux données est celui du modèle \eqref{tv-inf}, un résultat de D. Donoho (voir [55]). Ce résultat montre que, sous une condition liant le dictionnaire définissant le terme régularisant au dictionnaire définissant le terme d'attache aux données, il est possible d'étendre les résultats de D. Donoho aux modèles qui nous intéressent dans ce chapitre. Le résultat obtenu dit que, si la donnée initiale est très parcimonieuse, la solution du modèle est proche de sa décomposition la plus parcimonieuse. Ceci garantie la stabilité du modèle dans ce cadre et fait un lien entre régularisation $l^1$ et $l^0$, pour ce type d'attache aux données. Le Chapitre 7 contient l'étude d'une variante du Matching Pursuit. Dans cette variante, nous proposons de réduire le produit scalaire avec l'élément le mieux corrélé au résidu, avant de modifier le résidu. Ceci pour une fonction de seuillage général. En utilisant des propriétés simples de ces fonctions de seuillage, nons montrons que l'algorithme ainsi obtenu converge vers la projection orthogonale de la donnée sur l'espace linéaire engendré par le dictionnaire (le tout modulo une approximation quantifiée par les caractéristiques de la fonction de seuillage). Enfin, sous une hypothèse faible sur la fonction de seuillage (par exemple le seuillage dur la satisfait), cet algorithme converge en un temps fini que l'on peut déduire des propriétés de la fonction de seuillage. Typiquement, cet algorithme peut-être utilisé pour faire les projections orthogonales dans l'algorithme ``Orthogonal Matching Pursuit''. Ceci nous n'avons pas encore été fait. Le Chapitre 8 explore enfin la problématique de l'apprentissage de dictionnaires. Le point de vue développé est de considerer cette problématique comme un problème d'estimation de paramètres dans une famille de modèles génératifs additifs. L'introduction de switchs aléatoires de Bernoulli activant ou désactivant chaque élément d'un dictionnaire invariant par translation à estimer en permet l'identification dans des conditions assez générales en particulier dans le cas o\`{u} les coefficients sont gaussiens. En utilisant une technique d'EM variationel et d'approximation de la loi a posteriori par champ moyen, nous dérivons d'un principe d'estimation par maximum de vraisemblance un nouvel algorithme effectif d'apprentissage de dictionaire que l'on peut apparenter pour certains aspects à l'algorithme K-SVD. Les résultats expérimentaux sur données synthétiques illustrent la possibilité d'une identification correcte d'un dictionaire source et de plusieurs applications en décomposition d'images et en débruitage.
APA, Harvard, Vancouver, ISO, and other styles
30

Champagne, Roger. "Simulation en temps réel à l'aide de la représentation d'état : application à un entraînement électrique basé sur une machine asynchrone." Mémoire, École de technologie supérieure, 2001. http://espace.etsmtl.ca/838/1/CHAMPAGNE_Roger.pdf.

Full text
Abstract:
Les machines électriques sont omniprésentes dans nos vies. Il y en a dans nos ordinateurs et appareils ménagers, elles entraînent les machines-outils et les robots dans nos usines et déplacent trains et navires. Suite aux progrès importants en électronique de puissance ces dernières années, les entraînements à vitesse variable ont aussi connu une popularité croissante. Cependant, leur utilisation à grande échelle pollue le réseau électrique avec des harmoniques indésirables qui troublent le fonctionnement d'équipements sensibles, tels les ordinateurs et les systèmes de télécommunications. L'impact des entraînements à vitesse variable sur le réseau électrique qui les alimente doit donc être analysé à l'aide d'outils de simulation. De plus, la conception des entraînements de grande puissance bénéficierait aussi d'un outil permettant de développer les prototypes des contrôleurs associés à ces entraînements. Le but de cette thèse est donc de développer l'outil en question, soit un simulateur d'entraînements électriques entièrement numérique en temps réel. Ce simulateur permettrait aux ingénieurs chargés de la conception des entraînements d'effectuer des batteries de tests sur un prototype de contrôleur, sans avoir besoin dès le départ du véritable convertisseur et de la véritable machine. Ces premiers essais pourraient donc se faire dans des installations beaucoup plus modestes et de façon plus sécuritaire. Notre travail est basé sur la modélisation des entraînements électriques à l'aide de l'approche par variables d'état. Nous décrivons d'abord une méthode permettant d'obtenir automatiquement les équations d'état de tout système électrique linéaire, les composantes non-linéaires étant simulées à l'extérieur de la représentation d'état. La méthode est basée sur la théorie des graphes linéaires et comporte beaucoup de calcul matriciel, lequel est réalisé efficacement dans l'environnement Matlab. Une technique originale de mise à jour des équations d'état suite à un changement d'état d'interrupteurs est utilisée, ainsi qu'une méthode permettant d'obtenir une représentation d'état unique de tout l'étage de puissance. Cette dernière méthode permet une solution simultanée de toutes les équations dynamiques du système. Une implantation de la discrétisation trapézoïdale adaptée aux systèmes variant dans le temps est ensuite décrite et comparée à une méhtode d'intégration récemment développée pour la simulation en temps réel des systèmes rigides. Enfin, les diverses techniques exposées sont implantées afin de permettre la simulation en temps réel d'un entraînement industriel sur un ordinateur parallèle. D'excellents résultats sont obtenus avec un pas de calcul de l'ordre de 60µs, incluant les communications interprocesseur et les acquisitions des entrées et sorties.
APA, Harvard, Vancouver, ISO, and other styles
31

Lienou, Marie Lauginie. "Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005585.

Full text
Abstract:
La reconnaissance de la couverture des sols à partir de classifications automatiques est l'une des recherches méthodologiques importantes en télédétection. Par ailleurs, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la production des cartes d'occupation du sol, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres.
APA, Harvard, Vancouver, ISO, and other styles
32

Lienou, Marie Lauginie. "Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires." Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005585.

Full text
Abstract:
Dans le cadre de la reconnaissance de la couverture des sols à partir de classifications automatiques en télédétection, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la cartographie, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres
Land cover recognition from automatic classifications is one of the important methodological researches in remote sensing. Besides, getting results corresponding to the user expectations requires approaching the classification from a semantic point of view. Within this frame, this work aims at the elaboration of automatic methods capable of learning classes defined by cartography experts, and of automatically annotating unknown images based on this classification. Using corine land cover maps, we first show that classical approaches in the state-of-the-art are able to well-identify homogeneous classes such as fields, but have difficulty in finding high-level semantic classes, also called mixed classes because they consist of various land cover categories. To detect such classes, we represent images into visual words, in order to use text analysis tools which showed their efficiency in the field of text mining. By means of supervised and not supervised approaches on one hand, we exploit the notion of semantic compositionality: image structures which are considered as mixtures of land cover types, are detected by bringing out the importance of spatial relations between the visual words. On the other hand, we propose a semantic annotation method using a statistical text analysis model: latent dirichlet allocation. We rely on this mixture model, which requires a bags-of-words representation of images, to properly model high-level semantic classes. The proposed approach and the comparative studies with gaussian and gmm models, as well as svm classifier, are assessed using spot and quickbird images among others
APA, Harvard, Vancouver, ISO, and other styles
33

Gaujard, Chrystelle. "La représentation idéaltypique d'un nouveau repère organisationnel en formation : l'agencemen L." Littoral, 2008. http://www.theses.fr/2008DUNK0185.

Full text
Abstract:
Notre recherche porte sur la mise à jour d’un nouveau repère organisationnel, parce que nous soupçonnons un contexte favorable à son émergence. Pour cela, nous avons mobilisé la littérature dédiée, dans un premier temps à la dynamique des organisations, et dans un second temps au mode et au contenu de représentation des organisations. La dynamique des organisations propose la coévolution comme cadre de compréhension parce qu’elle inclut différents moteurs déclenchant l’apparition de nouvelles formes d’organisation. La théorie des organisations laisse apparaître de grands idéaltypes, repères organisationnels, reflétant un agencement spécifique. Dans ces traces, nous avons élaboré une méthodologie de recherche qui repose sur la construction d’un idéaltype, à partir de données qualitatives, auprès des start-up. Il ressort des résultats la formation d’un idéaltype caractérisé par une logique ludique favorisant l’innovation mais également l’apprentissage
This research focuses on the disclosure of a new organizational mark due to a favourable context. To this aim, we have first studied the organizational dynamic and then the method and the content in order to represent organizations. The coevolution offers a framework considering organizations, their populations and their environments as the interdependent outcomes of managerial actions, institutional influences and extra-institutional changes. This theory helps us to understand the evolution and the emergence of new organizational forms. Litterature has captured three different organizational idealtypes as three layout marks. In order to reveal this new idealtype the research methodology relies on an idealtype construction in a qualitative approach within start-ups. This research points out a playidealtype in construction which is promoting innovation and learning in the organization
APA, Harvard, Vancouver, ISO, and other styles
34

Lienhardt, Denis. "Exploitation de la représentation d'état linéaire : modélisation et simulation des systèmes non-linéaires décrits par le langage des graphes à liens." Mulhouse, 1989. http://www.theses.fr/1989MULH0112.

Full text
Abstract:
Réalisation d'un outil logiciel d'analyse des systèmes linéaires et de simulation des systèmes linéaires et non-linéaires. On utilise le formalisme des graphes à liens pour la description des systèmes
APA, Harvard, Vancouver, ISO, and other styles
35

He, Xiyan. "Sélection d'espaces de représentation pour la décision en environnement non-stationnaire : application à la segmentation d'images texturées." Troyes, 2009. http://www.theses.fr/2009TROY0027.

Full text
Abstract:
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système de décision en présence de bruit our de non stationnarité sur les mesures. L'approche proposée consiste à fragmenter l'espace de représentation initial en un ensemble de sous-espaces, puis à prendre la décision à l'aide des sous-espaces qui ne sont pas affectés par les non stationnarités (on parlera alors d'espaces homogènes). Pour cela, nous avons proposé trois approches pour sélectionner des sous-espaces homogènes issus de l'espace initial. L'une, reposant sur un ensemble de classifieurs des PPV, associée à une heuristique visant à sélectionner les sous-espaces générés aléatoirement à partir de l'espace initial. La seconde est basée sur le même principe que la première, mais le mode de génération des sous-espaces n'est plus aléatoire, il se fait via une version adaptée de LASSO. Enfin, nous avons étudié une méthode de sélection de sous-espaces de représentation homogènes via one-class SVM. La segmentation d'images texturées constitue une application tout à fait appropriée pour illustrer nos méthodes et évaluer leurs performances. Les résultats obtenus attestent de la pertinence des approches que nous avons proposées. Nos travaux se sont limités à l'étude des problèmes à deux classes
The objectif of this thesis is to improve or preserve the performance of a decision système in the presence of noise, loss of information or feature non-stationarity. The proposed method consists in first generating an ensemble of feature subspaces from the initial full-dimensional space, and then making the decision by usins only the subspaces which are supposed to be immune to the non-stationary disturbance (we call these subspaces as homogenous subspaces). Based on this idea, we propose three different approaches to make the system decision by using an ensemble of carefully constructed homogenous subspaces. The first approach uses an ensemble of NN classifiers, combined with a heuristic strategy targeting to select the so-called homogeneous feature subspaces among a large number of subspaces that are randomly generated from the initial space. The second approach follows the same principle; however, the geenration of the subspaces is no longer a random process, but is accomplished by using a modified and adaptive LASSO algorithm. Finally, in the third approach, the homogeneous feature subspace selection and the decision are realized by using one-class SVMs. The textured image segmentation constitutes an appropriate application for the evalution of the proposed approaches. The obtained experimental results demonstrate the effectiveness of the three decision systems that we have developed. Finally, it is worthwhile pointing out that all the work presented in this thesis is limited to the two-class classification problem
APA, Harvard, Vancouver, ISO, and other styles
36

Lachiche, Nicolas. "De l'induction confirmatoire à la classification : contribution à l'apprentissage automatique." Nancy 1, 1997. http://docnum.univ-lorraine.fr/public/SCD_T_1997_0267_LACHICHE.pdf.

Full text
Abstract:
La généralisation confirmatoire consiste à déterminer les lois les plus générales confirmées par un ensemble d'observations. L'induction confirmatoire repose sur l'hypothèse des similarités : les individus inconnus se comportent comme les individus connus. Nous montrons qu'une circonscription des individus modélise mieux cette hypothèse qu'une circonscription des propriétés. Nous proposons un modèle capable d'obtenir des clauses plus générales et d'éviter des généralisations indésirables par rapport aux approches existantes. Ce modèle défini en logique des prédicats se spécialise dans le cas propositionnel en un calcul des premiers impliqués. Considérant le problème de la classification, ou classement, d'objets à partir d'exemples, nous montrons que les règles minimales cohérentes et pertinentes ne sont pas, dans le cas général, des généralisations confirmatoires. Nous proposons une nouvelle technique de classification, dite par portée, qui consiste à chercher l'ensemble des exemples à partir desquels une règle cohérente et pertinente peut être construite. Elle a donc une approche à base d'instances de la classification à base de règles. Nous présentons un ensemble d'adaptations des fondements logiques de la classification par portée aux données réelles. Nous étendons également notre technique aux instances généralisées en règles. Les stratégies de généralisation que nous proposons, et surtout la recherche des voisins diffèrent nettement de celles existantes. Nous montrons que, bien que les hypothèses construites diffèrent, notre approche et celle de l'espace des versions disjonctives conduisent au même classement. Notre point de vue original permet cependant de proposer, au delà d'une implantation plus efficace, des développements propres à une approche à base de règles. Notre approche a en moyenne une meilleure précision et un temps d'exécution semblable à ceux les approches les plus utilisées à base d'instances ou à base de règles sur des ensembles de test usuels
Confirmatory generalisation consists in determining the most general laws confirmed by a set of observations. Confirmatory induction is based on the similarity assumption: unknown individuals behave like known individuals. We show that a circumscription of individuals is more appropriate to model this assumption than a circumscription of properties. Compared to existing approaches, the model we propose can produce more general clauses and avoids the production of unwanted generalisations. We specialise this model defined in first-order logic to attribute-value languages and show that it cornes down, in this case, to the calculation of prime implicates. Considering the problem of classification of objects from examples, we show that the minimal consistent and relevant rules are not, in general, confirmatory generalisations. We propose a new classification technique, called scope classification, which consists of building the set of examples from which a consistent and relevant rule can be built, so it is an instance-based approach of rule-based classification. We present several adaptations of the logical basements of the scope classification to better deal with real data. Scope classification is also extended to instances generalised into rules. The generalisation strategies we introduce, and especially the search of the neighbours, clearly differ from those of existing techniques. We show that, whereas hypotheses built by the scope classification and by the disjunctive version space differ, both techniques leads to the same classification. Though, in addition to a more efficient implementation, our original point of view allows us to propose sorne developments specifie to a rule-based approach. Our system obtains on average a better accuracy and a similar execution time to sorne of the most used instance-based or rule-based systems on an usual set of benchmarks
APA, Harvard, Vancouver, ISO, and other styles
37

Renaud-Amsellem, Pascale. "Effets d’aides cognitives langagières sur quelques aspects de la représentation de soi et le processus d’autoévaluation." Caen, 2006. http://www.theses.fr/2006CAEN1465.

Full text
Abstract:
Il s’agit d’une recherche-action dont le projet principal consiste à étudier la construction de la représentation de soi chez des adolescents perturbés et à s’interroger sur une autre façon de penser l’aide psychologique. Cette thèse présente le cheminement méthodologique d’une psychologue clinicienne aux prises avec les contraintes de sa pratique et les problématiques de ces adolescents. A l’origine, les visées du chercheur sont confondues avec les visées du praticien, à savoir contrôler la pertinence d’un outil. Au-delà, ce sont les facteurs susceptibles de faciliter la construction de l’image de soi, et plus fondamentalement les relations entre la structuration cognitive et la structuration de la personnalité qui sont recherchés. Dans un premier temps différents courants théoriques apparaissent porteurs de la légitimation et de la mise en œuvre d’un outil spécifique de remédiation autour des concepts de langage, de représentation de soi et du large champ de l’activité cognitive. Dans un second temps, les jeunes entraînés par cette méthode d’aides cognitives langagières fournissent une autoévaluation qui permet de dégager les effets produits : 1) des aides cognitives ont des incidences positives sur l’évolution de la représentation de soi. Elles ont tendance à améliorer trois composantes de l’Image Propre : l’aptitude à communiquer, l’aptitude à s’organiser et l’intérêt pour la vie sociale. 2) des activations de même nature produisent des effets différentiels en fonction du gen re. 3) une médiation pédagogique, par un professionnel de la psychologie, active la construction du processus d’autoévaluation et facilite la maîtrise des caractéristiques identitaires
APA, Harvard, Vancouver, ISO, and other styles
38

Dzogang, Fabon. "Représentation et apprentissage à partir de textes pour des informations émotionnelles et pour des informations dynamiques." Paris 6, 2013. http://www.theses.fr/2013PA066253.

Full text
Abstract:
L'extraction de connaissances automatique à partir de textes consiste àmettre en correspondance une information bas niveau, extraite desdocuments au travers des mots et des groupes de mots, avec uneinformation de plus haut niveau. Les choix de représentation pourdécrire les documents sont alors essentiels et leurs particularitéscontraignent la définition de l'algorithme d'apprentissage mis enoeuvre. Les travaux de cette thèse considèrent ces deux problématiquesd'une part pour des informations émotionnelles, d'autre part pour desinformations dynamiques. Dans une première partie, nous considérons une tâche d'extraction desémotions pour laquelle le fossé sémantique est plus important que pourdes informations traditionnellement thématiques. Aussi, nous étudionsdes représentations destinées à capturer les nuances du langage pourdécrire une information subjective puisque émotionnelle. Nous étudionsde plus l'intégration de connaissances sémantiques qui permettent, dans unetâche de caractérisation, d'extraire la charge émotionnelle desdocuments, dans une tâche de prédiction de guider l'apprentissageréalisé. Dans une seconde partie, nous étudions la dynamique de l'information :à tout corpus de documents publié sur Internet peut être associé dessources en perpétuelle activité qui échangent des informations dansun mouvement continu. Nous explorons trois axes d'étude : les sourcesidentifiées, les communautés qu'elles forment dans un espace dynamiquetrès parcimonieux, et les thématiques remarquables qu'ellesdéveloppent. Pour chacun nous proposons des méthodes d'extractionoriginales que nous mettons en oeuvre sur un corpus réel collecté encontinu sur Internet
Automatic knowledge extraction from texts consists in mapping lowlevel information, as carried by the words and phrases extracted fromdocuments, to higher level information. The choice of datarepresentation for describing documents is, thus, essential and thedefinition of a learning algorithm is subject to theirspecifics. This thesis addresses these two issues in the context ofemotional information on the one hand and dynamic information on theother. In the first part, we consider the task of emotion extraction forwhich the semantic gap is wider than it is with more traditionalthematic information. Therefore, we propose to study representationsaimed at modeling the many nuances of natural language used fordescribing emotional, hence subjective, information. Furthermore, wepropose to study the integration of semantic knowledge which provides,from a characterization perspective, support for extracting theemotional content of documents and, from a prediction perspective,assistance to the learning algorithm. In the second part, we study information dynamics: any corpus ofdocuments published over the Internet can be associated to sources inperpetual activity which exchange information in a continuousmovement. We explore three main lines of work: automaticallyidentified sources; the communities they form in a dynamic and verysparse description space; and the noteworthy themes they develop. Foreach we propose original extraction methods which we apply to a corpusof real data we have collected from information streams over the Internet
APA, Harvard, Vancouver, ISO, and other styles
39

De, moura braga Elayne. "Enseignement apprentissage de la statistique, TICE et environnement numérique de travail : étude des effets de supports didactiques numériques, médiateurs dans la conceptualisation en statistique." Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20021/document.

Full text
Abstract:
Définissant les Technologies de l’Information et de la Communication dans l’Education (TICE) comme médiateurs dans l’apprentissage, nous réalisons une recherche sur le support didactique numérique « Méthodes Quantitatives FORSE », disponible aux étudiants de Licence en Sciences de l’Education Formation à Distance (CNED) afin de proposer des compléments pour que les TICE deviennent des bons médiateurs. La formation à distance à travers les TICE exige une nouvelle lecture de l’éducation, des pratiques et des rôles des sujets impliqués (apprenant, contenu, support, éducateur). Nous montrons quels sont ses rôles, ses avantages et ses contraintes, d’après des analyses ergonomiques, des observations d’utilisation, des questionnaires auprès des étudiants et des analyses des productions des étudiants. L’attribution de causalité, la motivation et les représentations affectives son proposées comme indispensables au complément du triangle pédagogico-didactique. Ces aspects cognitifs et affectifs sont soutenus dans cette thèse comme des règles-d’action pour la conceptualisation de la statistique. Nous posons l’hypothèse qu’un support didactique numérique peut devenir bon médiateur dans la conceptualisation s’il tient en compte ces règles-d’action.D’après nos résultats, nous observons que les représentations affectives, l’attribution de causalité et la motivation influent significativement sur l’apprentissage. Nous proposons donc que le support didactique numérique peut inférer l’état affectif de l’utilisateur pour, à partir de ses performances, pouvoir agir dans le sens de favoriser une représentation affective positive, ce que lui amènera à des meilleures conceptualisations
Defining the Information and Communication Technologies for Education (TICE) as mediators in learning process, we carry out a research of the didactic support virtual “Quantitative Methods FORSE”, available to scholars students in Sciences of Education - Distance Learning (CNED) in order to propose complements to TICE in the way it becomes good mediators. Distance learning through TICE requires a new reading of education, practices and roles of the implied subjects (learning, contents, support, teacher). We show which are its roles, its advantages and its constraints, according to ergonomic analyses, observations of use, design questionnaires for gathering information from students and also analyses of their productions. Variables as attribution of causality, motivation and affective representations, sound suggested like essential points to complete the pedagogical-didactic triangle. These cognitive and emotional aspects are argued in this PhD thesis like rules of action for the learning of statistics concepts. Our hypothesis here is that a didactic support virtual can become a good mediator of conceptualization only if it holds the mentioned rules of action.According to our results, we observe that affective representations, attribution of causality and motivation influence significantly the learning of abstract concepts. By consequence, we propose that didactic support virtual can infer the affective state of users toward their performances and so, to be able to act in the direction to promote positive affective representations, which will bring back better conceptualizations from students
APA, Harvard, Vancouver, ISO, and other styles
40

Chan, wai tim Stefen. "Apprentissage supervisé d’une représentation multi-couches à base de dictionnaires pour la classification d’images et de vidéos." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT089/document.

Full text
Abstract:
Ces dernières années, de nombreux travaux ont été publiés sur l'encodage parcimonieux et l'apprentissage de dictionnaires. Leur utilisation s'est initialement développée dans des applications de reconstruction et de restauration d'images. Plus récemment, des recherches ont été réalisées sur l'utilisation des dictionnaires pour des tâches de classification en raison de la capacité de ces méthodes à chercher des motifs sous-jacents dans les images et de bons résultats ont été obtenus dans certaines conditions : objet d'intérêt centré, de même taille, même point de vue. Cependant, hors de ce cadre restrictif, les résultats sont plus mitigés. Dans cette thèse, nous nous intéressons à la recherche de dictionnaires adaptés à la classification. Les méthodes d'apprentissage classiquement utilisées pour les dictionnaires s'appuient sur des algorithmes d'apprentissage non supervisé. Nous allons étudier ici un moyen d'effectuer l'apprentissage de dictionnaires de manière supervisée. Dans l'objectif de pousser encore plus loin le caractère discriminant des codes obtenus par les dictionnaires proposés, nous introduisons également une architecture multicouche de dictionnaires. L'architecture proposée s'appuie sur la description locale d'une image en entrée et sa transformation grâce à une succession d'encodage et de traitements, et fournit en sortie un ensemble de descripteurs adaptés à la classification. La méthode d'apprentissage que nous avons développé est basée sur l'algorithme de rétro-propagation du gradient permettant un apprentissage coordonné des différents dictionnaires et une optimisation uniquement par rapport à un coût de classification. L’architecture proposée a été testée sur les bases de données d’images MNIST, CIFAR-10 et STL-10 avec de bons résultats par rapport aux autres méthodes basées sur l’utilisation de dictionnaires. La structure proposée peut être étendue à l’analyse de vidéos
In the recent years, numerous works have been published on dictionary learning and sparse coding. They were initially used in image reconstruction and image restoration tasks. Recently, researches were interested in the use of dictionaries for classification tasks because of their capability to represent underlying patterns in images. Good results have been obtained in specific conditions: centered objects of interest, homogeneous sizes and points of view.However, without these constraints, the performances are dropping.In this thesis, we are interested in finding good dictionaries for classification.The learning methods classically used for dictionaries rely on unsupervised learning. Here, we are going to study how to perform supervised dictionary learning.In order to push the performances further, we introduce a multilayer architecture for dictionaries. The proposed architecture is based on the local description of an input image and its transformation thanks to a succession of encoding and processing steps. It outputs a vector of features effective for classification.The learning method we developed is based on the backpropagation algorithm which allows a joint learning of the different dictionaries and an optimization solely with respect to the classification cost.The proposed architecture has been tested on MNIST, CIFAR-10 and STL-10 datasets with good results compared to other dicitonary-based methods. The proposed architecture can be extended to video analysis
APA, Harvard, Vancouver, ISO, and other styles
41

Auriol, Jean-Bernard. "Modélisation du sujet humain en situation de résolution de problème basée sur le couplage d'un formalisme logique et d'un formalisme d'opérateurs." Paris, ENST, 1999. http://www.theses.fr/1999ENST0049.

Full text
Abstract:
L'objectif de cette thèse est de démontrer que la résolution de problèmes par des sujets humains s'effectue par le couplage de deux modules indépendants: un module logique en charge des opérations d'évaluation, et un ensemble d'opérateurs en charge des opérations de calcul. L'existence de chacun des deux modules se justifie indépendamment: le module logique rend compte des capacités logiques des sujets, notamment leur capacité de concevoir des arguments au cours des conversations, alors que les opérateurs permettent d'expliquer les comportements routiniers et experts. Le couplage de ces deux modules permet d'expliquer le comportement des sujets novices en résolution de problème, et permet d'envisager le développement de l'expertise en proposant des lieux d'apprentissage tant au niveau logique qu'au niveau calculatoire. La validation de cette modélisation s'est effectuée en reproduisant de manière satisfaisante le comportement des sujets humains sur le problème de la tour de Hanoi. Afin d'illustrer la généralité de cette approche, la résolution de problèmes de trigonométrie a également été étudiée. Les résultats obtenus valident la séparation logique/calculatoire proposée dans cette thèse, et permettent d'envisager la résolution de problème sous un angle nouveau. Les notions de but (et l'organisation des buts), d'impasse, de planification et d'apprentissage sont ainsi éclairées de manière originale. Enfin, à la distinction déclaratif/procédural, classique en modélisation cognitive, nous ajoutons la distinction logique/opératoire qui permet de mieux rendre compte du comportement des novices en situation de résolution de problème.
APA, Harvard, Vancouver, ISO, and other styles
42

Loutchmia, Dominique. "Une méthode d'analyse discriminante pour des concepts imprécis." Phd thesis, Université de la Réunion, 1998. http://tel.archives-ouvertes.fr/tel-00473292.

Full text
Abstract:
Les travaux de cette thèse se situent dans le cadre de la discrimination conceptuelle. Notre objectif est de caractériser des classes d'objets imprécis et structurés, à partir de concepts imprécis. Le modèle de représentation des données utilise un formalisme objet pour décrire les relations de dépendance entre les attributs et modélise l'imprécision à l'aide de termes linguistiques organisés en structure de treillis. Dans un premier temps, nous avons défini des fonctions de reconnaissances floues permettant de mesurer l'appartenance graduelle d'une observation à un concept. Ces fonctions sont construites à partir de métriques qui prennent en compte les différents aspects du modèle. Ensuite, à partir des notions de complétude et de consistance, nous avons élaboré des critères évaluant la qualité de discrimination d'un concept au contour imprécis. L'utilisation de quantificateurs et modificateurs linguistiques permet de préciser cette qualité de discrimination en tenant compte des erreurs de classement. Enfin, nous avons développé des méthodes d'acquisition de concepts imprécis à partir d'exemples et de contre-exemples. Ces méthodes déterminent un recouvrement des exemples à partir de descriptions reconnaissant au plus, un nombre fixe de contre-exemples. Nos méthodes de discrimination s'appuient, pour déterminer efficacement des concepts, sur les opérateurs de généralisation et sur la structure de treillis des descriptions discriminantes. Afin d'améliorer la qualité et la fiabilité des résultats, une procédure de sélection des attributs les plus discriminants a été proposée. Implantées dans un système d'apprentissage, ces différentes méthodes sont appliquées à plusieurs expérimentations.
APA, Harvard, Vancouver, ISO, and other styles
43

Gaudiello, Ilaria. "Learning robotics, with robotics, by robotics : a study on three paradigms of educational robotics, under the issues of robot representation, robot acceptance, and robot impact on learning." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080081.

Full text
Abstract:
La relation entre progrès technologique et innovation pédagogique a récemment engendré un nouveau champ de recherche, à la croisée des chemins entre la Psychologie, les Sciences de l’Education et l’Intelligence Artificielle : la Robotique Educationnelle (RE). La présente thèse fournit un état de l’art critique sur la RE, ses origines et son positionnement au sein des technologies de l’information et de la communication pour l’enseignement (TICE). A travers une analyse des finalités éducatives atteignables en fonction du statut technologique et des modalités d’apprentissage spécifiques aux différents types de robots, nous définissons trois paradigmes pédagogiques : (i) l’apprentissage de la robotique, (ii) l'apprentissage avec la robotique, et (iii) l'apprentissage par la robotique. Ces trois paradigmes sont abordés à travers trois thématiques, dans une perspective de recherche fondamentale en Psychologie : (i) les représentations mentales que les humains ont du robot, (ii) l’acceptation et la confiance dans les interactions homme-robot et (iii) les apprentissages favorisés par les robots en contexte éducatif
Through a psychological perspective, the thesis concerns the three ER learning paradigms that are distinguished upon the different hardware, software, and correspondent modes of interaction allowed by the robot. Learning robotics was investigated under the issue of robot representation. By robot representation, we mean its ontological and pedagogical status and how such status change when users learn robotics. In order to answer this question, we carried out an experimental study based on pre- and post-inquiries, involving 79 participants. Learning with robotics was investigated under the issue of robot’s functional and social acceptance. Here, the underlying research questions were as follows: do students trust in robot’s functional and social savvy? Is trust in functional savvy a pre-requisite for trust in social savvy? Which individuals and contextual factors are more likely to influence this trust? In order to answer these questions, we have carried an experimental study with 56 participants and an iCub robot. Trust in the robot has been considered as a main indicator of acceptance in situations of perceptual and socio-cognitive uncertainty and was measured by participants’ conformation to answers given by iCub. Learning by robotics was investigated under the issue of robot’s impact on learning. The research questions were the following: to what extent the combined RBI & IBSE frame has a positive impact on cognitive, affective, social and meta-cognitive dimensions of learning? Does this combined educational frame improve both domain-specific and non-domain specific knowledge and competences of students? In order to answer these questions, we have carried a one-year RBI & IBSE experimental study in the frame of RObeeZ, a research made through the FP7 EU project Pri-Sci-Net. The longitudinal experiments involved 26 pupils and 2 teachers from a suburb parisian primary school
APA, Harvard, Vancouver, ISO, and other styles
44

Courtine, Mélanie. "Changements de représentation pour la classification conceptuelle non supervisée de données complexes." Paris 6, 2002. http://www.theses.fr/2002PA066404.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Bel, Bernard. "Acquisition et représentation de connaissances en musique." Phd thesis, Aix-Marseille 3, 1990. http://tel.archives-ouvertes.fr/tel-00009692.

Full text
Abstract:
Cette étude traite de la représentation informatique de connaissances en musique, abordée à partir de deux expériences en grandeur réelle. La première est une méthode d'acquisition de connaissances en ethnographie mettant en interaction un expert (le musicien), un analyste (le musicologue) et une machine dans une situation d'apprentissage. Les schémas d'improvisation des musiciens sont identifiés et exprimés à l'aide de règles de production dans un formalisme dérivé des grammaires génératives et des langages de formes. Un algorithme déterministe de test d'appartenance de chaînes arbitraires au langage défini par une grammaire (sensible au contexte) est présenté, ainsi qu'une technique d'inférence inductive de langages réguliers permettant l'acquisition automatique de connaissances lexicales et syntaxiques. La seconde expérience s'insère dans l'élaboration d'un environnement de composition musicale assistée par ordinateur. Le problème est ici la représentation du temps dans une structure discrète d'“objets temporels”, et plus généralement la synchronisation de processus parallèles. Une méthode est proposée pour la détermination d'une structure à partir de données incomplètes sur la synchronisation des objets. La notion d'“objet sonore” est ensuite explicitée formellement. Un algorithme efficace permet l'instanciation des objets sonores affectés à une structure en tenant compte des contraintes liées à leurs propriétés métriques et topologiques.
APA, Harvard, Vancouver, ISO, and other styles
46

Bredèche, Nicolas. "Ancrage de lexique et perceptions : changements de représentation et apprentissage dans le contexte d'un agent situé et mobile." Paris 11, 2002. http://www.theses.fr/2002PA112225.

Full text
Abstract:
En intelligence artificielle, le problème de l'ancrage de symboles dans le monde est un élément primordial du point de vue du sens des connaissances que peut manipuler un agent artificiel. Les travaux que nous présentons abordent le problème de l'ancrage pour un robot situé et mobile qui évolue dans le monde. Le problème que nous nous posons est de donner la capacité à un tel agent d'ancrer un lexique constitué de mots connus par des interlocuteurs humains et se référant à des objets physiques présents dans l'environnement. Ancrer un tel lexique est rendu difficile par un environnement dynamique, complexe et fortement bruité. De plus, pour un objet particulier à ancrer, un nom donné par un interlocuteur humain peut se référer à un grand nombre de formes observables alors que l'agent n'observe généralement que peu d'exemples de vues de chaque objet. Il n'est pas non plus possible d'utiliser de modèle ad hoc du fait de la grande diversité des objets à ancrer. Par conséquent la question se pose de savoir comment construire l'ancrage d'un symbole quelconque. Dans le cadre de cette thèse, nous reformulons le problème de l'ancrage de symboles comme un problème d'apprentissage automatique supervisé. Nous proposons ensuite une approche qui repose sur la mise en oeuvre d'opérateurs d'abstraction exploitant les informations de granularités et de structures contenues dam les perceptions de l'agent Pour chaque symbole, la définition de ces opérateurs est fixée à l'aide de changements de représentation successifs et rend ainsi possible la construction d'un ancrage efficace et adapté. Finalement, nous avons développé les outils PLIC et WMplic qui mettent en oeuvre avec succès notre approche pour construire et maintenir un ancrage à long terme dans le cadre d'un robot mobile autonome Pioneer2DX évoluant dans les couloirs du Laboratoire d'informatique de Paris 6
In Artificial Intelligence, the symbol grounding problem is considered as an important issue regarding the meaning of symbols used by an artificial agent. Our work is concerned with the grounding of symbols for a situated mobile robot that navigates through a real world environment. In this setting, the main problem the robot encounters is to ground symbols given by a human teacher that refers to physical entities (e. G. A door, a human, etc. ). Grounding such a lexicon is a difficult task because of the intrinsic nature of the environment: it is dynamic, complex and noisy. Moreover, one specific symbol (e. G. "door") may refer to different physical objects in size, shape or colour while the robot may acquire only a small number of examples for each symbol. Also, it is not possible to rely on ad-hoc physical models of symbols due to the great number of symbols that may be grounded. Thus, the problem is to define how to build a grounded representation in such a context. In order to address this problem, we have reformulated the symbol grounding problem as a supervised learning problem. We present an approach that relies on the use of abstraction operators. Thanks to these operators, information on granularity and structural configuration is extracted from the perceptions in order to case the building of an anchor. For each symbol, the appropriate definition for these operators is found out thanks to successive changes of representation that provide an efficient and adapted anchor. In order to implement our approach, we have developed PLIC and WMplic which are successfully used for long term symbol grounding by a PIONEER2 DX mobile robot in the corridors of the Computer Sciences Lab of the University of Paris 6
APA, Harvard, Vancouver, ISO, and other styles
47

Lebatteux, Nicole. "Représentation sociale de l'entreprise et contexte scolaire en lycée professionnel tertiaire : obstacles et appuis pour un apprentissage citoyen." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX10100.

Full text
Abstract:
Notre travail s'inscrit dans la perspective des rapports aux savoirs dans l'enseignement professionnel tertiaire. A partir d'une problématique didactique spécifique, il s'appuie sur l'utilisation de la théorie structurale des représentations sociales et de ses outils pour interroger la construction des savoirs sur l'entreprise par les élèves. Les caractéristiques sociales des savoirs prescrits, savoirs experts et questions socialement vives, peuvent constituer des obstacles à un apprentissage citoyen. Nous étudions les savoirs préalables des élèves en début de cycle de BEP vente et leur évolution après le processus d'enseignement. Ces résultats sont confrontés avec ce qu'anticipent les enseignants des savoirs naturels de leurs élèves et ce qu'ils attendent en termes de savoirs ancrés en fin de formation. Nos résultats montrent que la représentation sociale des élèves sur l'entreprise est active dans l'école et qu'elle influence les apprentissages, alors que leurs enseignants s'interrogent peu sur les conditions de leur "exportation" dans les savoirs sociaux des élèves.
APA, Harvard, Vancouver, ISO, and other styles
48

Jaillet, Simon. "Catégorisation automatique de documents textuels : D'une représentation basée sur les concepts aux motifs séquentiels." Montpellier 2, 2005. http://www.theses.fr/2005MON20030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Masset-Martin, Angélique. "Enquête sur la métalangue dans l'enseignement - apprentissage du FLE/S à des élèves non francophones scolarisés en France." Amiens, 2009. http://www.theses.fr/2009AMIE0002.

Full text
Abstract:
Enquêter sur la métalangue en classe de FLE/S a été un travail à la croisée de deux disciplines en interaction : la didactique des langues et la linguistique. Nous avons déterminé comment et quand se manifeste la métalangue en classe de FLE/S. Quelles en sont les principales caractéristiques ? Qu’apprend-on sur le métalexique ? Nous avons analysé un corpus obtenu par des observations dans des classes d’accueil d’élèves nouveaux arrivants en France. D’abord, nous présentons les données essentielles pour comprendre le contexte, la démarche puis les conclusions de cette recherche. Ensuite nous nous penchons sur les discours métalinguistiques des enseignants et des élèves. Enfin nous passons en revue le lexique métalinguistique ou à usage métalinguistique et nous en proposons une classification. Il existe un va-et-vient entre les lexies spécialisées, relevant de la linguistique, et les mots des discours ordinaires. La frontière est poreuse en raison de l’utilisation que l’on fait des uns ou des autres termes
The study of metalanguage in classes of French as a Foreign or Second language relates to the intersection of two disciplines (linguistics and didactics) which are in interaction. We determined how and when metalanguage occurs in classes of French as a Foreign or Second language. What are its main characteristics? What do we learn on the metalinguistic vocabulary? We analysed a corpus obtained from observations in reception classes for students newly arrived in France. We present first the basic data in order to understand the context, the approach adopted and then the conclusions of this research. Then we focus on the metalinguistic discourse of teachers and students. Lastly, we review the metalinguistic vocabulary or vocabulary in a metalinguistic usage and put forward a classification. There is a switching backwards and forwards between specialised lexical items, associated with linguistics, and the words of everyday speech. The boundary is porous, according to how particular terms are used
APA, Harvard, Vancouver, ISO, and other styles
50

Gaillard, Audrey. "Développement des représentations conceptuelles chez l'enfant : une approche transversale." Paris 8, 2011. http://www.theses.fr/2011PA083972.

Full text
Abstract:
Ces dernières années, de nombreuses études en psychologie du développement ont porté sur la formation des concepts chez les enfants, et notamment sur la catégorisation d'objets. Ce travail de thèse a visé, dans un premier temps, à étudier l’influence de différents facteurs contextuels (consigne expérimentale, nombre de séances, nature de la catégorie de noms d’objets) sur la stabilité des représentations étudiées avec une tâche de classement de noms d’objets et une tâche de production de propriétés, et ce chez l’adulte Dans un second temps, nous avons étudié les représentations conceptuelles chez l’enfant. Ainsi, nous sommes-nous attachés à analyser l'organisation catégorielle de noms d'objets divers et sa stabilité temporelle chez l'enfant âgé de 6 à 11 ans en fonction de différents facteurs : l'âge des enfants, la tâche expérimentale et la nature des noms d'objets proposés. L’ensemble de nos résultats démontre l’influence notable de la tâche sur la stabilité temporelle des représentations, tant chez l’adulte que l’enfant. Ainsi, plus que les facteurs contextuels testés (consigne, séances, nature des catégories d’objets), il semble que ce soit le type de tâche qui induise la variabilité. Chez l'enfant, nos résultats mettent en évidence l'influence de la nature des catégories de noms d'objets (naturels/fabriqués) et de l'âge des enfants sur la stabilité des représentations mises au jour. Nos résultats sont discutés au regard des théories de la catégorisation et du développement conceptuel
In recent years, many studies in developmental psychology have focused on concept formation in children, i. E. Object categorization. This thesis aimed, first, to study the influence of several contextual factors (experimental instructions, number of repetitions, category membership) on representation stability studied with sorting task and property-generation production task with adult participants. In the second time, in order to study conceptual representations in children, we analyzed the categorical organization of various objects names and its temporal stability in children aged from 6 to 11 years old according to different factors: children's age, experimental tasks and category membership. The set of our results shows the influence of the task on temporal stability of representations, both in adults than in children. Therefore, it seems to be the type of task that induces variability, not the contextual factors tested (instructions, repetitions, category membership). In, children, our results show that stability representations depends on the age and the category membership of objects (natural objects or artifacts). We discuss results compared to theories of categorization and conceptual development
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography