Дисертації з теми "Apprentissage par modèle"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Apprentissage par modèle.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Apprentissage par modèle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Liang, Ke. "Oculométrie Numérique Economique : modèle d'apparence et apprentissage par variétés." Thesis, Paris, EPHE, 2015. http://www.theses.fr/2015EPHE3020/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'oculométrie est un ensemble de techniques dédié à enregistrer et analyser les mouvements oculaires. Dans cette thèse, je présente l'étude, la conception et la mise en œuvre d'un système oculométrique numérique, non-intrusif permettant d'analyser les mouvements oculaires en temps réel avec une webcam à distance et sans lumière infra-rouge. Dans le cadre de la réalisation, le système oculométrique proposé se compose de quatre modules: l'extraction des caractéristiques, la détection et le suivi des yeux, l'analyse de la variété des mouvements des yeux à partir des images et l'estimation du regard par l'apprentissage. Nos contributions reposent sur le développement des méthodes autour de ces quatre modules: la première réalise une méthode hybride pour détecter et suivre les yeux en temps réel à partir des techniques du filtre particulaire, du modèle à formes actives et des cartes des yeux (EyeMap); la seconde réalise l'extraction des caractéristiques à partir de l'image des yeux en utilisant les techniques des motifs binaires locaux; la troisième méthode classifie les mouvements oculaires selon la variété générée par le Laplacian Eigenmaps et forme un ensemble de données d'apprentissage; enfin, la quatrième méthode calcul la position du regard à partir de cet ensemble d'apprentissage. Nous proposons également deux méthodes d'estimation:une méthode de la régression par le processus gaussien et un apprentissage semi-supervisé et une méthode de la catégorisation par la classification spectrale (spectral clustering). Il en résulte un système complet, générique et économique pour les applications diverses dans le domaine de l'oculométrie
Gaze tracker offers a powerful tool for diverse study fields, in particular eye movement analysis. In this thesis, we present a new appearance-based real-time gaze tracking system with only a remote webcam and without infra-red illumination. Our proposed gaze tracking model has four components: eye localization, eye feature extraction, eye manifold learning and gaze estimation. Our research focuses on the development of methods on each component of the system. Firstly, we propose a hybrid method to localize in real time the eye region in the frames captured by the webcam. The eye can be detected by Active Shape Model and EyeMap in the first frame where eye occurs. Then the eye can be tracked through a stochastic method, particle filter. Secondly, we employ the Center-Symmetric Local Binary Patterns for the detected eye region, which has been divided into blocs, in order to get the eye features. Thirdly, we introduce manifold learning technique, such as Laplacian Eigen-maps, to learn different eye movements by a set of eye images collected. This unsupervised learning helps to construct an automatic and correct calibration phase. In the end, as for the gaze estimation, we propose two models: a semi-supervised Gaussian Process Regression prediction model to estimate the coordinates of eye direction; and a prediction model by spectral clustering to classify different eye movements. Our system with 5-points calibration can not only reduce the run-time cost, but also estimate the gaze accurately. Our experimental results show that our gaze tracking model has less constraints from the hardware settings and it can be applied efficiently in different real-time applications
2

Israilov, Sardor. "De l'identification basée apprentissage profond à la commande basée modèle." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La nage des poissons reste un sujet complexe qui n'est pas encore totalement compris en raison de son aspect interdisciplinaire qui mêle la biologie et dynamique des fluides. Au fil des millénaires, les organismes naturels ont perfectionné leur biologie pour naviguer efficacement dans leur environnement et s'adapter à tout type de situations. Tout au long de l'histoire, l'humanité s'est inspirée de la nature pour innover et développer des systèmes biomimétiques. Le poisson robotique, en particulier, trouve nombres d'applications dans le monde réel et son contrôle doit encore être optimisé. L'apprentissage par renforcement profond a donné d'excellents résultats dans le contrôle des systèmes robotiques, dont la dynamique est trop complexe pour être entièrement modélisée et analysée. Dans cette thèse, nous avons exploré de nouvelles voies de contrôle d'un poisson biomimétique via l'apprentissage par renforcement afin de maximiser efficacement la force de poussée et la vitesse de déplacement. Cependant, pour comprendre pleinement ces nouveaux algorithmes basés sur les données, nous avons d'abord étudié l'application de ces méthodes sur une référence standard de la théorie du contrôle, le pendule inversé sur un chariot. Nous avons démontré que l'apprentissage par renforcement profond pouvait contrôler le système sans aucune connaissance préalable du système, en obtenant des performances comparables aux méthodes traditionnelles de la théorie du contrôle basée sur un modèle. Dans le troisième chapitre, nous nous concentrons sur la nage ondulatoire d'un poisson robotique avec différents objectifs et sources d'information de contrôle. Nos études indiquent que la force de poussée d'un poisson robotique peut être optimisée en utilisant des données provenant à la fois de capteurs de force et d'une caméra comme retour d'information pour la commande. Nos résultats démontrent qu'une commande carrée avec une fréquence particulière maximise la poussée et nous la rationalisons en utilisant le principe du maximum de Pontryagin. Un modèle approprié est établi qui montre un excellent accord entre la simulation et les résultats expérimentaux. Ensuite, nous nous concentrons sur la maximisation de la vitesse d'un poisson robotique à la fois dans plusieurs environnements virtuels et dans des expériences utilisant des données visuelles
Fish swimming remains a complex subject that is not yet fully understood due to the inter-section of biology and fluid dynamics. Through years of evolution, organisms in nature have perfected their biological mechanisms to navigate efficiently in their environment and adaptto particular situations. Throughout history, mankind has been inspired by nature to innovateand develop nature-like systems. Biomimetic robotic fish, in particular, has a number of appli-cations in the real world and its control is yet to be optimized. Deep Reinforcement Learning showed excellent results in control of robotic systems, where dynamics is too complex to befully modeled and analyzed. In this thesis, we explored new venues of control of a biomimetic fish via reinforcement learning to effectively maximize the thrust and speed. However, to fully comprehend the newly-emerged data-based algorithms, we first studied the application of these methods on a standard benchmark of a control theory, the inverted pendulum with a cart. We demonstrated that deep Reinforcement Learning could control the system without any prior knowledge of the system, achieving performance comparable to traditional model-based con-trol theory methods. In the third chapter, we focus on the undulatory swimming of a roboticfish, exploring various objectives and information sources for control. Our studies indicate that the thrust force of a robotic fish can be optimized using inputs from both force sensors and cameras as feedback for control. Our findings demonstrate that a square wave control with a particular frequency maximizes the thrust and we rationalize it using Pontryagin Maximum Principle. An appropriate model is established that shows an excellent agreement between simulation and experimental results. Subsequently, we concentrate on the speed maximization of a robotic fish both in several virtual environments and experiments using visual data. Once again, we find that deep Reinforcement Learning can find an excellent swimming gait with a square wave control that maximizes the swimming speed
3

Goëau, Hervé. "Structuration de collections d'images par apprentissage actif crédibiliste." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00410380.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
4

Goëau, Hervé. "Structuration de collections d'images par apprentissage actif crédibiliste." Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10070.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction
Image annotation is an essential task in professional archives exploitation. Archivsits must describe every image in order to make easier future retrieval tasks. The main difficulties are how to interpret the visual contents, how to bring together images whitch can be associated in same categories, and how to deal with the user's subjectivity. In this thesis, we use the principle of active learning in order to help a user who wants organize with accuracy image collections. From the visual content analysis, complementary active learning strategies are proposed to the user to help him to identify and put together images in relevant categories according to his oppinion. We choose to express this image classification problem with active learning by using the Transferable Belief Model (TBM), an elaboration on the Dempster-Shafer theory of evidence. The TBM allows the combination, the revision and the representation of the knowledge which can be extracted from the visual contents and the previously identified categories. Our method proposed in this theoritical framework gives a detailed modeling of the knowledge by representing explicitly cases of multi-labeling, while quantifying uncertainty (related to the semantic gap) and conflict induced by the analysis of the visual content in different modalities (colors, textures). A human-machine interface was developed in order to validate our approach on reference tests, personal images collections and professional photos from the National Audiovisual Institute. An evaluation was driven with professional users and showed very positive results in terms of utility, of usability and satisfaction
5

Delcourt, Alexandre. "Amélioration des détecteurs CdZnTe pour l'imagerie gamma par apprentissage." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALM056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation généralisée des détecteurs à base de CZT dans l’imagerie gamma depuis certaines années pousse à l’optimisation de leurs performances afin de rester compétitif au niveau industriel. Néanmoins la présence de défauts structurels dans la maille cristalline du CZT dégrade la qualité de signaux de sortie et freine le développement de détecteurs à plus grand volume. L’objectif de cette thèse est d’utiliser des algorithmes d’optimisation et d’intelligence artificielle en s’aidant de simulations réalistes afin d’outrepasser les effets de ces défauts et d’améliorer les performances de localisation des interactions gamma dans le détecteur. Nous allons nous baser sur une méthode mathématique en 3 étapes alternative aux méthodes de caractérisation et de correction usuelles. D’abord le développement de simulations de détecteurs CZT en 3 dimensions avec possibilité d’implémenter des défauts de différentes natures pour observer leur impact sur les signaux sortants. Puis nous allons construire un réseau de neurones simple adaptable dans l’électronique afin de localiser les interactions dans le détecteur d’après des résultats de simulation. Un second réseau basé sur une méthode d’optimisation par calcul de gradient va permettre de déterminer le champ électrique et les performances de collecte d’un détecteur.La concaténation de ces 3 étapes va permettre d’apprendre par simulation les paramètres internes d’un détecteur étudié tel que le champ électrique, simulation qui va servir afin d’entraîner le réseau de neurones simple, pour finalement être utilisé sur les données expérimentales dans le but d’améliorer les performances de localisation du détecteur.Le développement de cette approche mathématique va permettre d’un côté la meilleure compréhension de la structure interne du cristal CZT et la possibilité de reproduire son comportement en simulation. Egalement les meilleures performances du détecteur pourraient se retrouver dans l’utilisation de doses de radio traceurs inférieures en imagerie, ou un temps d’exposition réduit pour les opérateurs en centrale nucléaire
Since a few years, the wide spread use of CZT-based detectors in gamma imaging drives their performance optimization to stay competitive at the industrial level. However, the presence of structural defect in the CZT crystal deteriorates the output signals quality and holds back the higher volume detectors development.The purpose of this thesis is the use of optimization and artificial intelligence algorithms using realistic simulations to override the impact of the defects and improve the localization performances of gamma interactions in the detector. We will develop a mathematical-based method in three steps as an alternative to common characterization and correction methods.First, we develop 3D CZT detector simulations enabling to implement defects with different natures to observe their impact on output signals. Then we build a simple neural network, which can be introduced in the electronics to localize the gamma interactions in the detector from simulation results. A second network based on a gradient computation method will allow determining the electric field and collection performance of a detector.The addition of these three steps will be used to learn through simulation the intern parameters of a determined detector such as the electric field. This simulation will serve to train the simple neural network and finally be used on experimental data to improve the localization performance of the detector.The development of this mathematical approach will help us having a better understanding of the intern structure of a CZT crystal being able to reproduce its behavior in simulation. In addition, the better performance of the detector might be sufficient to decrease the radiotracer dose for medical imaging or limit the exposition time of operators in a nuclear power plant
6

Zhang, Jian. "Modèles de Mobilité de Véhicules par Apprentissage Profond dans les Systèmes de Tranport Intelligents." Thesis, Ecole centrale de Lille, 2018. http://www.theses.fr/2018ECLI0015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de transport intelligents ont acquis un grand intérêt pour la recherche ces dernières années. Alors que la simulation réaliste du trafic joue un rôle important, elle n'a pas reçu suffisamment d'attention. Cette thèse est consacrée à l'étude de la simulation du trafic au niveau microscopique et propose des modèles de mobilité des véhicules correspondants. À l'aide de méthodes d'apprentissage profond, ces modèles de mobilité ont fait leurs preuves avec une crédibilité prometteuse pour représenter les véhicules dans le monde réel. D'abord, un modèle de mobilité basé sur un réseau de neurones piloté par les données est proposé. Ce modèle provient de données de trajectoires du monde réel et permet de mimer des comportements de véhicules locaux. En analysant les performances de ce modèle de mobilité basé sur un apprentissage de base, nous indiquons qu’une amélioration est possible et proposons ses spécifications. Un MMC est alors introduit. La préparation de cette intégration est nécessaire, ce qui comprend un examen des modèles de mobilité traditionnels basés sur la dynamique et l’adaptation des modèles « classiques » à notre situation. Enfin, le modèle amélioré est présenté et une simulation de scénarios sophistiqués est construite pour valider les résultats théoriques. La performance de notre modèle de mobilité est prometteuse et des problèmes de mise en œuvre sont également discutés
The intelligent transportation systems gain great research interests in recent years. Although the realistic traffic simulation plays an important role, it has not received enough attention. This thesis is devoted to studying the traffic simulation in microscopic level, and proposes corresponding vehicular mobility models. Using deep learning methods, these mobility models have been proven with a promising credibility to represent the vehicles in real-world. Firstly, a data-driven neural network based mobility model is proposed. This model comes from real-world trajectory data and allows mimicking local vehicle behaviors. By analyzing the performance of this basic learning based mobility model, we indicate that an improvement is possible and we propose its specification. An HMM is then introduced. The preparation of this integration is necessary, which includes an examination of traditional dynamics based mobility models and the adaptation method of “classical” models to our situation. At last, the enhanced model is presented, and a sophisticated scenario simulation is built with it to validate the theoretical results. The performance of our mobility model is promising and implementation issues have also been discussed
7

Badets, Arnaud. "Apprentissage moteur par observation d'un sujet modèle : rôles de la connaissance du résultat et de l'intention." Poitiers, 2004. http://www.theses.fr/2004POIT2263.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse axé sur l'apprentissage par observation présente quatre études sur le rôle de la connaissance du résultat (CR) et une étude sur l'intention de reproduction motrice. Plus précisément, les trois premières expériences évaluent le rôle de la fréquence relative de CR durant l'apprentissage par observation. Les expériences 1 et 2 démontrent qu'une fréquence relative de CR inférieure à 100 % pendant l'observation d'un sujet modèle est bénéfique à l'apprentissage des composantes paramétriques de la tâche. La troisième expérience démontre qu'une fréquence relative de CR inférieure à 100 % de CR pendant l'observation d'un sujet modèle, améliore l'apprentissage des composantes invariantes de la tâche. La quatrième expérience démontre un effet positif d'une procédure de CR sous seuil de tolérance pour l'apprentissage par observation. Enfin, la dernière expérience sur l'apprentissage par observation démontre un effet positif de l'intention de reproduire la tâche sur l'apprentissage moteur. Cet effet positif est exclusivement démontré sur les composantes invariantes de l'habileté motrice. Les résultats de ces cinq expériences sont discutés en fonction d'un modèle théorique développé sur des propositions récentes issues d'études comportementales et neurophysiologiques (Shea et al. , 2000; Jeannerod, 2003)
This thesis focus on the role of observational learning in motor learning and includes four studies on the role of the knowledge of results (KR) and one study on the role of the intention to reproduce the observed behavior. More precisely, the three first studies assess the role of the relative KR frequency during observational learning. Experiments 1 and 2 indicate that a low relative KR frequency (e. G. , 33%) enhances the learning of the parametric components of the task and the ability to detect errors in the model and in the participant own performance. The third experiment shows that a low KR frequency during observation enhances the learning of the invariant components of the task. The fourth experiment shows a positive effect of bandwidth KR during observational learning when compared to a condition that control the KR frequency. Finally, the last experiment indicates that intention to reproduce the observed behavior enhances the learning of the invariant components of the task. Results of those five studies on physical practice and on observation are discussed in light of recent suggestions from behavioral and neurophysiological studies (Shea et al. , 2000; Jeannerod, 2003)
8

Martinet, Louis-Emmanuel. "Apprentissage spatial et planification de l'action dans un modèle de réseau neuronal inspiré du cortex préfrontal." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00646738.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre important d'expériences étudiant les bases neurales de la cognition spatiale chez le rongeur souligne le rôle majeur de la formation hippocampique (voir Arleo and Rondi-Reig, 2007 pour une revue). Cette région limbique est impliquée dans l'apprentissage spatial depuis que des neurones sélectifs à une position -- nommés cellules de lieu hippocampiques (O'Keefe and Nadel, 1978) -- ont été découverts au moyen d'enregistrements psychophysiologiques chez des rats se déplaçant librement. Ces neurones participent très certainement à l'encodage de représentations spatiales dans un système de coordonnées allocentriques (c'est-'a-dire centrées sur le monde). Cependant deux autres composants sont nécessaires pour accomplir une navigation flexible (c'est-'a-dire pour planifier des détours et/ou des raccourcis) : la représentation du but et la planification de séquences d'actions dirigées vers un objectif (Poucet et al., 2004). Il a été proposé que l'hippocampe encoderait des représentations topologiques (prenant en compte la connectivité entre les différentes positions de l'environnement) adaptées à l'apprentissage de séquences d'actions (voir Poucet et al., 2004). Cependant, d'autres études expérimentales suggèrent l'existence d'un système extrahippocampique de planification de l'action partagé parmi de nombreuses régions (voir Knierim, 2006 pour une revue). Cette hypothèse postule une cognition spatiale distribuée dans laquelle (i) l'hippocampe prendrait part 'a la planification des actions en transmettant des représentations spatiales redondantes aux aires associatives supérieures, (ii) un réseau cortical élaborerait des représentations plus abstraites et compactes du contexte spatial (prenant en compte les informations de motivation, les contraintes cout de l'action / risque, et les séquences temporelles des réponses comportementales dirigées vers un but).
9

Rebière, Thérèse. "Apprentissage par l'expérience, formation initiale et recherche d'emploi des salariés." Le Havre, 2009. http://www.theses.fr/2009LEHA0014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie les conséquences sur le marché du travail de la recherche d’emploi sur le tas (on-the-job search) des travailleurs, dans un modèle d'appariement qui décrit le déroulement de carrière des travailleurs. Le marché du travail est segmenté de façon hiérarchisée en un secteur peu qualifié, dans lequel les travailleurs se forment, et un secteur qualifié mieux rémunéré qu'ils cherchent à rejoindre. Dans ce cadre, la thèse traite des thèmes suivants : le chômage, l'efficacité du marché du travail et le rôle des politiques publiques, les effets du salaire minimum, les choix éducatifs
This thesis studies the consequences, on the labor market, of the on-the-job search process of workers, in a matching model capturing workers’ career path. The labor market is hierarchically segmented in two sectors : the low-skill sector, in which workers learn by doing, and the better-paying high-skill sector that workers wish to reach. The addressed topics are the followings : the efficiency of the labor market, a self-financed tax and subsidy policy, the minimum wage effects, educational choices
10

Brenon, Alexis. "Modèle profond pour le contrôle vocal adaptatif d'un habitat intelligent." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM057/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les habitats intelligents, résultants de la convergence de la domotique, de l'informatique ubiquitaire et de l'intelligence artificielle, assistent leurs habitants dans les situations du quotidien pour améliorer leur qualité de vie.En permettant aux personnes dépendantes et âgées de rester à domicile plus longtemps, ces habitats permettent de fournir une première réponse à des problèmes de société comme la dépendance due au vieillissement de la population.En nous plaçant dans un habitat contrôlé par la voix, l'habitat doit répondre aux requêtes d’un utilisateur concernant un ensemble d’actions pouvant être automatisées (contrôle des lumières, des volets, des dispositifs multimédia, etc.).Pour atteindre cet objectif, le système de contrôle de l'habitat a besoin de prendre en compte le contexte dans lequel un ordre est donné mais également de connaitre les habitudes et préférences de l’utilisateur.Pour cela, le système doit pouvoir agréger les informations issues du réseau de capteurs domotiques hétérogènes et prendre en compte le comportement (variable) de l'utilisateur.La mise au point de systèmes de contrôle intelligent d'un habitat est particulièrement ardue du fait de la grande variabilité concernant aussi bien la topologie des habitats que les habitudes des utilisateurs.Par ailleurs, l'ensemble des informations contextuelles doivent être représentées dans un référentiel commun dans un objectif de raisonnement et de prise de décision.Pour répondre à ces problématiques, nous proposons de développer un système qui d'une part modifie continuellement son modèle de manière à s'adapter à l'utilisateur, et qui d'autre part utilise directement les données issues des capteurs à travers une représentation graphique. L'intérêt et l'originalité de cette méthode sont de ne pas nécessiter d'inférence pour déterminer le contexte.Notre système repose ainsi sur une méthode d'apprentissage par renforcement profond qui couple un réseau de neurones profond du type convolutif permettant l'extraction de données contextuelles, avec un mécanisme d'apprentissage par renforcement pour la prise de décision.Ce mémoire présente alors deux systèmes, un premier reposant uniquement sur l'apprentissage par renforcement et montrant les limites de cette approche sur des environnements réels pouvant comporter plusieurs milliers d'états possibles.L'introduction de l'apprentissage profond a permis la mise au point du second système, ARCADES, dont les bonnes performances montrent la pertinence d'une telle approche, tout en ouvrant de nombreuses voies d'améliorations
Smart-homes, resulting of the merger of home-automation, ubiquitous computing and artificial intelligence, support inhabitants in their activity of daily living to improve their quality of life.Allowing dependent and aged people to live at home longer, these homes provide a first answer to society problems as the dependency tied to the aging population.In voice controlled home, the home has to answer to user's requests covering a range of automated actions (lights, blinds, multimedia control, etc.).To achieve this, the control system of the home need to be aware of the context in which a request has been done, but also to know user habits and preferences.Thus, the system must be able to aggregate information from a heterogeneous home-automation sensors network and take the (variable) user behavior into account.The development of smart home control systems is hard due to the huge variability regarding the home topology and the user habits.Furthermore, the whole set of contextual information need to be represented in a common space in order to be able to reason about them and make decisions.To address these problems, we propose to develop a system which updates continuously its model to adapt itself to the user and which uses raw data from the sensors through a graphical representation.This new method is particularly interesting because it does not require any prior inference step to extract the context.Thus, our system uses deep reinforcement learning; a convolutional neural network allowing to extract contextual information and reinforcement learning used for decision-making.Then, this memoir presents two systems, a first one only based on reinforcement learning showing limits of this approach against real environment with thousands of possible states.Introduction of deep learning allowed to develop the second one, ARCADES, which gives good performances proving that this approach is relevant and opening many ways to improve it
11

Tmar, Mohamed. "Modèle auto-adaptatif de filtrage d'information : apprentissage incrémental du profil et de la fonction de décision." Toulouse 3, 2002. http://www.theses.fr/2002TOU30081.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Nikoulina, Vassilina. "Modèle de traduction statistique à fragments enrichi par la syntaxe." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles de traduction automatique probabiliste traditionnel ignorent la structure syntaxique des phrases source et cible. Le choix des unités lexicales cible et de leur ordre est contrôlé uniquement par des statistiques de surface sur le corpus d'entraînement. La connaissance de la structure linguistique peut-être bénéfique, car elle fournit des informations génériques compensant la pauvreté des données directement observables. Nos travaux ont pour but d'étudier l'impact des informations syntaxiques sur un modèle de traduction probabiliste de base, fondé sur des fragments, dans le cadre d'un analyseur dépendanciel particulier, XIP, dont la performance est bien adaptée à nos besoins. Nous étudions d'abord l'intégration des informations syntaxiques dans un but de reclassement des traductions proposées par le modèle de base? Nous définissons un ensemble de traits mesurant la similarité entre les structures de dépendance source et cible, et des traits de cohérence linguistique (basés sur l'analyse cible). L'apprentissage automatique des poids de ces traits permet de détecter leurs importance. L'évaluation manuelle des différents modèles de reclassement nous a permis de montrer le potentiel de ces traits pour améliorer la qualité des traductions proposées par le modèle de base. Ensuite, nous avons proposé un modèle pour réduire la taille du graphe des hypothèses exploré par le modèle de base à l'aide de connaissances sur la structure syntaxique source. Nous avons également proposé une procédure de décomposition d'une phrase source initiale en sous-phrases pour simplifier la tâche de traduction. Les évaluations initiales de ces modèles se sont montrées prometteuses
Traditional Statistical Machine Translation models are not aware of linguistic structure. Thus, target lexical choices and word order are controlled only by surface-based statistics learned from the training corpus. However, knowledge of linguistic structure can be beneficial since it provides generic information compensating data sparsity. The purpose of our work is to study the impact of syntactic information while preserving the general framework of Phrase-Based SMT. First, we study the integration of syntactic information using a reranking approach. We define features measuring the similarity between the dependency structures of source and target sentences, as well as features of linguistic coherence of the target sentences. The importance of each feature is assessed by learning their weights through a Structured Perceptron Algorithm. The evaluation of several reranking models shows that these features often improve the quality of translations produced by the basic model, in terms of manual evaluations as opposed to automatic measures. Then, we propose different models in order to increase the quality and diversity of the search graph produced by the decoder, through filtering out uninteresting hypotheses based on the source syntactic structure. This is done either by learning limits on the phrase recordering, or by decomposing the source sentence in order to simplify the translation process. The initial evaluations of these models look promising
13

Nikoulina, Vassilina. "Modèle de traduction statistique à fragments enrichi par la syntaxe." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00996317.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles de traduction automatique probabiliste traditionnel ignorent la structure syntaxique des phrases source et cible. Le choix des unités lexicales cible et de leur ordre est contrôlé uniquement par des statistiques de surface sur le corpus d'entraînement. La connaissance de la structure linguistique peut-être bénéfique, car elle fournit des informations génériques compensant la pauvreté des données directement observables. Nos travaux ont pour but d'étudier l'impact des informations syntaxiques sur un modèle de traduction probabiliste de base, fondé sur des fragments, dans le cadre d'un analyseur dépendanciel particulier, XIP, dont la performance est bien adaptée à nos besoins. Nous étudions d'abord l'intégration des informations syntaxiques dans un but de reclassement des traductions proposées par le modèle de base? Nous définissons un ensemble de traits mesurant la similarité entre les structures de dépendance source et cible, et des traits de cohérence linguistique (basés sur l'analyse cible). L'apprentissage automatique des poids de ces traits permet de détecter leurs importance. L'évaluation manuelle des différents modèles de reclassement nous a permis de montrer le potentiel de ces traits pour améliorer la qualité des traductions proposées par le modèle de base. Ensuite, nous avons proposé un modèle pour réduire la taille du graphe des hypothèses exploré par le modèle de base à l'aide de connaissances sur la structure syntaxique source. Nous avons également proposé une procédure de décomposition d'une phrase source initiale en sous-phrases pour simplifier la tâche de traduction. Les évaluations initiales de ces modèles se sont montrées prometteuses.
14

Dollé, Laurent. "Contribution d'un modèle computationnel de sélection de stratégies de navigation aux hypothèses relatives à l'apprentissage spatial." Phd thesis, Paris 6, 2010. http://www.theses.fr/2010PA066407.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La nature de l’apprentissage spatial des mammifères, et particulièrement des rats, est l’objet d’un débat ancien impliquant l’existence de deux théories contradictoires: selon la théorie associative, les amers à disposition de l’animal sont appris indépendamment et mis en compétition selon leur capacité à mener l’animal vers le but voulu. La théorie cognitive supporte quant à elle l’intégration de tous les amers dans une représentation spatiale. Enfin, des données neurobiologiques indiquent l’existence de structures modulaires pouvant impliquer les deux hypothèses et pouvant interagir de façon compétitive ou coopérative. Un modèle computationnel de sélection de stratégies de navigation a été conçu pour prendre en compte ces différentes hypothèses. Sa conception modulaire a nécessité la mise en place d’une règle de sélection ne dépendant pas de la nature de l’apprentissage des stratégies et pouvant privilégier soit certains amers, soit l’utilisation d’une représentation spatiale intégrant plusieurs amers. Ce modèle sélectionne en ligne des stratégies apprises en parallèle par un module séparé dont l’existence est corroborée par des travaux récents démontrant l’implication de structures du cortex préfrontal dans cette fonction. Ce modèle bio-inspiré est capable de reproduire des expériences dans lesquelles l’influence des amers a donné lieu à des interprétations issues de l’une ou de l’autre des deux théories. Nous y apportons un corpus d’explications, conciliant à la fois les données neurobiologiques et comportementales, ainsi que des prédictions qui permettront aux neurobiologistes d’estimer l’utilité de ce modèle. Une implémentation robotique est également en cours.
15

Monari, Gaétan. "Sélection de modèles non linéaires par "leave-one-out": étude théorique et application des réseaux de neurones au procédé de soudage par points." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1999. http://pastel.archives-ouvertes.fr/pastel-00000676.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le soudage par points est la principale technique d'assemblage des tôles de carrosserie automobile. Cependant, la variabilité de ce procédé, et en particulier de l'état des électrodes de soudage, pose deux problèmes non résolus à ce jour: le contrôle non destructif de la qualité des soudures et la commande des paramètres de soudage. Utilisé fréquemment dans le domaine des réseaux de neurones, et réputé pour donner de bons résultats avec peu d'exemples, le leave-one-out conduit en réalité souvent à la sélection de modèles surajustés. Or, par un développement de Taylor, nous pouvons calculer l'effet du retrait d'un exemple de la base d'apprentissage sur la sortie du modèle. Nous prouvons que l'estimation de l'erreur de généralisation obtenue à partir de ce calcul est plus fiable que celle obtenue classiquement par apprentissage. Par ailleurs, nous montrons le lien existant entre le leave-one-out calculé et les intervalles de confiance sur la sortie du modèle. Enfin, nous proposons une technique originale de sélection de modèles non linéaires qui évite le surajustement en limitant l'influence de chaque exemple sur l'estimation des paramètres du modèle. Nous présentons une méthode permettant d'obtenir un modèle de prévision du diamètre d'une soudure, valable dans des conditions préétablies. Plus particulièrement, nous montrons comment constituer une base de données initiale, sélectionner le modèle adéquat, puis compléter progressivement la base d'apprentissage. Appliquée à deux types de tôles, cette méthode permet d'atteindre une précision proche de l'erreur de mesure. En outre, utilisés au sein d'une loi de commande, ces modèles permettent d'optimiser l'usure des électrodes.
16

Mountassir, Mahjoub El. "Surveillance d'intégrité des structures par apprentissage statistique : application aux structures tubulaires." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les approches de surveillance de l’intégrité des structures ont été proposées pour permettre un contrôle continu de l’état des structures en intégrant à celle-ci des capteurs intelligents. En effet, ce contrôle continu doit être effectué pour s’assurer du bon fonctionnement de celles-ci car la présence d’un défaut dans la structure peut aboutir à un accident catastrophique. Cependant, la variation des conditions environnementales et opérationnelles (CEO) dans lesquelles la structure évolue, impacte sévèrement les signaux collectés ce qui induit parfois une mauvaise interprétation de la présence du défaut dans la structure. Dans ce travail de thèse, l’application des méthodes d’apprentissage statistiques classiques a été envisagée dans le cas des structures tubulaires. Ici, les effets des paramètres de mesures sur la robustesse de ces méthodes ont été investiguées. Ensuite, deux approches ont été proposées pour remédier aux effets des CEO. La première approche suppose que la base de données des signaux de référence est suffisamment riche en variation des CEO. Dans ce cas, une estimation parcimonieuse du signal mesuré est calculée. Puis, l’erreur d’estimation est utilisée comme indicateur de défaut. Tandis que la deuxième approche est utilisée dans le cas où la base de données des signaux des références contient une variation limitée des CEO mais on suppose que celles-ci varient lentement. Dans ce cas, une mise à jour du modèle de l’état sain est effectuée en appliquant l’analyse en composante principale (PCA) par fenêtre mobile. Dans les deux approches, la localisation du défaut a été assurée en utilisant une fenêtre glissante sur le signal provenant de l’état endommagé
To ensure better working conditions of civil and engineering structures, inspections must be made on a regular basis. However, these inspections could be labor-intensive and cost-consuming. In this context, structural health monitoring (SHM) systems using permanently attached transducers were proposed to ensure continuous damage diagnostic of these structures. In SHM, damage detection is generally based on comparison between the healthy state signals and the current signals. Nevertheless, the environmental and operational conditions will have an effect on the healthy state signals. If these effects are not taken into account they would result in false indication of damage (false alarm). In this thesis, classical machine learning methods used for damage detection have been applied in the case of pipelines. The effects of some measurements parameters on the robustness of these methods have been investigated. Afterthat, two approaches were proposed for damage diagnostic depending on the database of reference signals. If this database contains large variation of these EOCs, a sparse estimation of the current signal is calculated. Then, the estimation error is used as an indication of the presence of damage. Otherwise, if this database is acquired at limited range of EOCs, moving window PCA can be applied to update the model of the healthy state provided that the EOCs show slow and continuous variation. In both approaches, damage localization was ensured using a sliding window over the damaged pipe signal
17

Silberzahn, Philippe. "La détermination par la firme entrepreneuriale de ses produits et marchés : un modèle socio-cognitif." Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00005103.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette recherche est d'étudier l'utilisation d'une approche émergente dans la détermination par une startup de ses produits et ses marchés en situation d'incertitude forte. Nous définissons un modèle permettant de décrire les trajectoires de développement des startups au moyen de sept variables. Nous étudions comment l'équipe entrepreneuriale manipule ces variables pour déterminer les produits et les marchés au moyen d'une heuristique combinant conception et expérience. Le pilotage délibéré par l'équipe de cette heuristique permet un rendement croissant de l'apprentissage, facteur d'efficacité croissante du processus de détermination, qui converge progressivement vers une opportunité et la résolution de l'incertitude. Ce processus de détermination s'avérant souvent long et incertain, nous étudions la création par l'équipe de son identité sociale pour comprendre comment elle se structure pour que le processus puisse aboutir. Nous synthétisons ces résultats en proposant un modèle d'identité stratégique de la firme entrepreneuriale pilotant son développement par l'apprentissage.
18

Mountassir, Mahjoub El. "Surveillance d'intégrité des structures par apprentissage statistique : application aux structures tubulaires." Electronic Thesis or Diss., Université de Lorraine, 2019. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2019_0047_EL_MOUNTASSIR.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les approches de surveillance de l’intégrité des structures ont été proposées pour permettre un contrôle continu de l’état des structures en intégrant à celle-ci des capteurs intelligents. En effet, ce contrôle continu doit être effectué pour s’assurer du bon fonctionnement de celles-ci car la présence d’un défaut dans la structure peut aboutir à un accident catastrophique. Cependant, la variation des conditions environnementales et opérationnelles (CEO) dans lesquelles la structure évolue, impacte sévèrement les signaux collectés ce qui induit parfois une mauvaise interprétation de la présence du défaut dans la structure. Dans ce travail de thèse, l’application des méthodes d’apprentissage statistiques classiques a été envisagée dans le cas des structures tubulaires. Ici, les effets des paramètres de mesures sur la robustesse de ces méthodes ont été investiguées. Ensuite, deux approches ont été proposées pour remédier aux effets des CEO. La première approche suppose que la base de données des signaux de référence est suffisamment riche en variation des CEO. Dans ce cas, une estimation parcimonieuse du signal mesuré est calculée. Puis, l’erreur d’estimation est utilisée comme indicateur de défaut. Tandis que la deuxième approche est utilisée dans le cas où la base de données des signaux des références contient une variation limitée des CEO mais on suppose que celles-ci varient lentement. Dans ce cas, une mise à jour du modèle de l’état sain est effectuée en appliquant l’analyse en composante principale (PCA) par fenêtre mobile. Dans les deux approches, la localisation du défaut a été assurée en utilisant une fenêtre glissante sur le signal provenant de l’état endommagé
To ensure better working conditions of civil and engineering structures, inspections must be made on a regular basis. However, these inspections could be labor-intensive and cost-consuming. In this context, structural health monitoring (SHM) systems using permanently attached transducers were proposed to ensure continuous damage diagnostic of these structures. In SHM, damage detection is generally based on comparison between the healthy state signals and the current signals. Nevertheless, the environmental and operational conditions will have an effect on the healthy state signals. If these effects are not taken into account they would result in false indication of damage (false alarm). In this thesis, classical machine learning methods used for damage detection have been applied in the case of pipelines. The effects of some measurements parameters on the robustness of these methods have been investigated. Afterthat, two approaches were proposed for damage diagnostic depending on the database of reference signals. If this database contains large variation of these EOCs, a sparse estimation of the current signal is calculated. Then, the estimation error is used as an indication of the presence of damage. Otherwise, if this database is acquired at limited range of EOCs, moving window PCA can be applied to update the model of the healthy state provided that the EOCs show slow and continuous variation. In both approaches, damage localization was ensured using a sliding window over the damaged pipe signal
19

Gaillard, Pierre. "Apprentissage statistique de la connexité d'un nuage de points par modèle génératif : application à l'analyse exploratoire et la classification semi-supervisée." Compiègne, 2008. http://www.theses.fr/2008COMP1767.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous présentons un modèle statistique permettant d'extraire la connexité des variétés structurantes d'un ensemble de points. Ce modèle combine des approches statistiques et géométriques en définissant un modèle de mélange gaussien construit à partir d'un graphe. A partir de ce graphe génératif, nous proposons et évaluons des méthodes d'analyses exploratoires et de classification non-supervisée et semi-supervisée
In this work, we propose a statistical model to learn the connectedness of a set of points. This model combine geometrical and statistical approaches by defining a mixture model based on a graph. From this generative graph, we propose and evaluate methods and algorithms to analyse the set of points and to realize semi-supervised learning
20

Decoux, Benoît. "Un modèle connexionniste de vision 3-D : imagettes rétiniennes, convergence stéréoscopique, et apprentissage auto-supervisé de la fusion." Rouen, 1995. http://www.theses.fr/1995ROUES056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les études destinées à apporter l'apprentissage non-supervisé à la vision stéréoscopique artificielle s'inscrivent dans la recherche en auto-organisation des systèmes, et constituent une avancée dans la modélisation de la vision stéréo naturelle. Le principal objectif de cette thèse est de participer à cette recherche. Après quelques données sur la vision naturelle, des propriétés importantes des réseaux neuronaux sont présentées. L'accent est mis ensuite sur les propriétés d'auto-organisation de ces derniers, ainsi que sur leurs capacités sensorimotrices. Un passage en revue non-exhaustif des modèles connexionnistes de vision stéréo existant, est alors effectué. Enfin, un modèle connexionniste de vision stéréo est proposé. Ce modèle comporte deux processus complémentaires : 1) la convergence stéréo met en correspondance des régions, par minimisation d'une disparité globale. Elle simule un processus de convergence visio-motrice; 2) la fusion stéréo recherche alors la correspondance entre des éléments caractéristiques. La fusion est obtenue après une phase d'apprentissage auto-supervisé. Le type de l'apprentissage est ainsi dénommé parce que la règle utilisée est une règle d'apprentissage supervisé, mais dans laquelle l'information de supervision est extraite automatiquement des entrées visuelles par le modèle. Les scènes visuelles sont perçues au moyen d'un ensemble d'imagettes rétiniennes : il s'agit de petites images de différents champs visuels et résolutions.
21

Cottret, Maxime. "Exploration visuelle d'environnement intérieur par détection et modélisation d'objets saillants." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00289380.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un robot compagnon doit comprendre le lieu de vie de l'homme pour satisfaire une requête telle que "Va chercher un verre dans la cuisine" avec un haut niveau d'autonomie. Pour cela, le robot doit acquérir un ensemble de représentations adaptées aux différentes tâches à effectuer. Dans cette thèse, nous proposons d'apprendre en ligne un modèle d'apparence de structures locales qui pourront être nommées par l'utilisateur. Cela permettra ensuite de caractériser un lieu topologique (ex: la cuisine) par un ensemble de structures locales ou d'objets s'y trouvant (réfrigérateur, cafetière, evier, ...). Pour découvrir ces structures locales, nous proposons une approche cognitive, exploitant des processus visuels pré-attentif et attentif, mis en oeuvre à partir d'un système sensoriel multi-focal. Le processus pré-attentif a pour rôle la détection de zones d'intérêt, supposées contenir des informations visuelles discriminantes: basé sur le modèle de 'saillance' de Itti et Koch, il détecte ces zones dans une carte de saillance, construite à partir d'images acquises avec une caméra large champ; une zone détectée est ensuite suivie sur quelques images afin d'estimer grossièrement la taille et la position 3D de la structure locale de l'environnement qui lui correspond. Le processus attentif se focalise sur la zone d'intérêt: le but est de caractériser chaque structure locale, par un modèle d'apparence sous la forme de mémoires associatives vues-patches-aspects. De chaque image sont extraits des points d'intérêt, caractérisés par un descripteur d'apparence local. Après cette phase d'exploration, l'homme peut annoter le modèle en segmentant les structures locales en objets, en nommant ces objets et en les regroupant dans des zones (cuisine&). Ce modèle d'apparence sera ensuite exploité pour la reconnaissance et la localisation grossière des objets et des lieux perçus par le robot
22

Philippeau, Jérémy. "Apprentissage de similarités pour l'aide à l'organisation de contenus audiovisuels." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/564/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans une optique d'adaptation aux nouveaux usages de consultation d'archives audiovisuelles, nous souhaitons aider un utilisateur issu du grand public à organiser des contenus audiovisuels, c'est-à-dire les classifier, les caractériser, les identifier ou les ordonner. Pour ce faire, nous proposons d'utiliser un vocabulaire autre que ce que l'on pourrait trouver dans une notice documentaire de l'Ina, afin de répondre à des envies qui ne sont pas facilement définissables avec des mots. Nous avons conçu pour cela une interface graphique qui s'appuie sur un formalisme de graphe dédié à l'expression d'une tâche organisationnelle. La similarité numérique est un bon outil au regard des éléments que nous manipulons, à savoir des objets informationnels présentés sur un écran d'ordinateur et des valeurs descriptives de " bas niveau " audio et vidéo extraites de manière automatique. Nous avons choisi de prédire la similarité entre ces éléments grâce à un modèle statistique. Parmi les nombreux modèles existants, la prédiction statistique basée sur la régression univariée et fondée
In the perspective of new usages in the field of the access to audiovisual archives, we have created a semi-automatic system that helps a user to organize audiovisual contents while performing tasks of classification, characterization, identification and ranking. To do so, we propose to use a new vocabulary, different from the one already available in INA documentary notices, to answer needs which can not be easily defined with words. We have conceived a graphical interface based on graph formalism designed to express an organisational task. The digital similarity is a good tool in respect with the handled elements which are informational objects shown on the computer screen and the automatically extracted audio and video low-level features. We have made the choice to estimate the similarity between those elements with a predictive process through a statistical model. Among the numerous existing models, the statistical prediction based on the univaried regression and on support vectors has been chosen. H)
23

Amour, Lamine. "Mise en oeuvre d’un modèle adaptatif pour l’estimation de la qualité réelle perçue par l’usager (QoE) : application aux services mobiles." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC0043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contexte général de la thèse se situe dans le développement de mécanismes adaptatifs capables de récupérer des éléments d’information issus d’un environnement et d’un contexte donnés (Qualité de l’Expérience : QoE) et de s’y adapter afin d’enclencher des actions spécifiques correctrices suite à l’arrivée d’événements imprévisibles ou non souhaités comme une QoS insatisfaisante, un retour d’expérience négatif ou encore des dysfonctionnements des éléments du réseau. Pour ce faire, l’idée maîtresse défendue ici consiste à faire évoluer la gestion du réseau en migrant d’une vue "centrée réseau" où l’on se contentait uniquement des paramètres issus du réseau lui-même, vers une vue "centrée utilisateur". Cette vue consiste à considérer l’ensemble des facteurs, endogènes ou exogènes, pouvant impacter le retour d’expérience de l’utilisateur final. Les travaux développés dans le cadre de cette thèse se sont focalisés sur l’étude de ces facteurs sur l’ensemble des composants de la chaîne de traitement et de transport (utilisateur, périphérique, application, éléments du réseau) et mesurer leur impact dans l’estimation de la QoE usager. Le cas d’usage considéré concerne les approches de diffusion de vidéos en ligne. Les travaux de thèse ont conduit à la proposition d’une nouvelle solution de diffusion de vidéos à débit variable fonctionnant en boucle fermée et sensible à la QoE. Une telle solution permet d’optimiser en temps réel la qualité de la vidéo en fonction de la mesure instantanée de la QoE estimée
The general context of the thesis is the development of adaptive mechanisms that uses information from a given environment and context (Quality of Experience: QoE) and adapting it in order to initiate a specific corrective actions following the occurrence of undesirable events such as an unsatisfactory Quality of Service (QoS), negative feedback or malfunctions of network elements. To do this, the main objective of this thesis is to develop a new network management by moving from a "network centred" view, where only parameters from the network itself were used, to a "user centred" view. This view consists in considering all the factors that can impact the end-user's experience. The work developed as part of this thesis focused on studying these factors on all components of the processing and transport chain (user, peripheral, application, network elements) and measuring their impact in estimating user QoE. The use case considered concerns approaches to the dissemination of adaptive bit rate streaming (ABR). The thesis work led to the proposal of a new solution for the adaptive bit rate streaming operating in a closed loop and sensitive to QoE. Such a solution allows to optimize in real time the quality of the video according to the instantaneous measurement of the estimated QoE
24

Motta, Jesus Antonio. "VENCE : un modèle performant d'extraction de résumés basé sur une approche d'apprentissage automatique renforcée par de la connaissance ontologique." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/26076.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses méthodes et techniques d’intelligence artificielle pour l’extraction d'information, la reconnaissance des formes et l’exploration de données sont utilisées pour extraire des résumés automatiquement. En particulier, de nouveaux modèles d'apprentissage automatique semi supervisé avec ajout de connaissance ontologique permettent de choisir des phrases d’un corpus en fonction de leur contenu d'information. Le corpus est considéré comme un ensemble de phrases sur lequel des méthodes d'optimisation sont appliquées pour identifier les attributs les plus importants. Ceux-ci formeront l’ensemble d’entrainement, à partir duquel un algorithme d’apprentissage pourra abduire une fonction de classification capable de discriminer les phrases de nouveaux corpus en fonction de leur contenu d’information. Actuellement, même si les résultats sont intéressants, l’efficacité des modèles basés sur cette approche est encore faible notamment en ce qui concerne le pouvoir discriminant des fonctions de classification. Dans cette thèse, un nouveau modèle basé sur l’apprentissage automatique est proposé et dont l’efficacité est améliorée par un ajout de connaissance ontologique à l’ensemble d’entrainement. L’originalité de ce modèle est décrite à travers trois articles de revues. Le premier article a pour but de montrer comment des techniques linéaires peuvent être appliquées de manière originale pour optimiser un espace de travail dans le contexte du résumé extractif. Le deuxième article explique comment insérer de la connaissance ontologique pour améliorer considérablement la performance des fonctions de classification. Cette insertion se fait par l’ajout, à l'ensemble d’entraînement, de chaines lexicales extraites de bases de connaissances ontologiques. Le troisième article décrit VENCE , le nouveau modèle d’apprentissage automatique permettant d’extraire les phrases les plus porteuses d’information en vue de produire des résumés. Une évaluation des performances de VENCE a été réalisée en comparant les résultats obtenus avec ceux produits par des logiciels actuels commerciaux et publics, ainsi que ceux publiés dans des articles scientifiques très récents. L’utilisation des métriques habituelles de rappel, précision et F_measure ainsi que l’outil ROUGE a permis de constater la supériorité de VENCE. Ce modèle pourrait être profitable pour d’autres contextes d’extraction d’information comme pour définir des modèles d’analyse de sentiments.
Several methods and techniques of artificial intelligence for information extraction, pattern recognition and data mining are used for extraction of summaries. More particularly, new machine learning models with the introduction of ontological knowledge allow the extraction of the sentences containing the greatest amount of information from a corpus. This corpus is considered as a set of sentences on which different optimization methods are applied to identify the most important attributes. They will provide a training set from which a machine learning algorithm will can abduce a classification function able to discriminate the sentences of new corpus according their information content. Currently, even though the results are interesting, the effectiveness of models based on this approach is still low, especially in the discriminating power of classification functions. In this thesis, a new model based on this approach is proposed and its effectiveness is improved by inserting ontological knowledge to the training set. The originality of this model is described through three papers. The first paper aims to show how linear techniques could be applied in an original way to optimize workspace in the context of extractive summary. The second article explains how to insert ontological knowledge to significantly improve the performance of classification functions. This introduction is performed by inserting lexical chains of ontological knowledge based in the training set. The third article describes VENCE , the new machine learning model to extract sentences with the most information content in order to produce summaries. An assessment of the VENCE performance is achieved comparing the results with those produced by current commercial and public software as well as those published in very recent scientific articles. The use of usual metrics recall, precision and F_measure and the ROUGE toolkit showed the superiority of VENCE. This model could benefit other contexts of information extraction as for instance to define models for sentiment analysis.
25

Dollé, Laurent. "Contribution d'un modèle computationnel de sélection de stratégies de navigation aux hypothèses relatives à l'apprentissage spatial." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00647199.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses expériences montrent la capacité des mammifères, particulièrement étudiée chez le rat, à pouvoir utiliser plusieurs types de navigation pour rejoindre un but. Ces stratégies seraient utilisées en fonction de la disponibilité de différents types d'amers présents dans l'environnement, situés à la proximité ou loin du but (resp. amers proximaux et distaux), ainsi que d'autres facteurs, comme la motivation, l'expérience ou le stress. Les études ont notamment porté ces dernières décennies sur les systèmes de mémoires engagés dans l'utilisation de ces stratégies, l'hypothèse dominante étant que des modules apprennent en parallèle des types distincts de stratégies, reposant ou non sur la construction d'une représentation interne de l'environnement. Les unes, reposant sur l'utilisation d'amers visibles, seraient apprises de manière relativement inflexible (apprentissage procédural) et impliqueraient notamment le striatum dorso-latéral. D'autres impliqueraient la formation hippocampique et reposeraient sur la construction préalable d'une "carte cognitive" de l'environnement (apprentissage déclaratif), en intégrant de manière redondante les amers disponibles. Cette carte, apprise indépendamment de la position du but, confèrerait une flexibilité importante à ce type de stratégies puisqu'elle aurait la capacité de repositionner rapidement le but, si celui-ci venait à être déplacé. L'hypothèse d'une telle représentation spatiale (théorie dite "cognitive") et de systèmes parallèles ayant des capacités différentes d'apprentissage est supportée par des comparaisons entre animaux intacts et animaux ayant des lésions des structures nerveuses concernées, de même que des expériences impliquant des manipulations de l'environnement (e.g., déplacement d'amers). Cette hypothèse est toutefois remise en question par la nature de l'apprentissage impliqué : la construction d'une représentation spatiale et son utilisation est contraire à nombre d'observations tendant à montrer que le comportement spatial est avant tout dirigé par une compétition entre les amers disponibles, résultant du même apprentissage procédural que celui mis en oeuvre dans un conditionnement opérant (théorie dite "associative"). Des expériences démontrent en effet que certains amers peuvent être occultés ou bloqués par d'autres selon qu'ils sont appris parallèlement ou séquentiellement, et remettent ainsi en question la possibilité d'intégrer ces amers de manière redondante. Selon les tenants de cette théorie, la navigation serait donc avant tout apprise et gérée de manière unitaire, empêchant ainsi l'émergence de plusieurs stratégies apprises en parallèle. Nous adoptons ici l'hypothèse, déjà formulée par d'autres neurobiologistes, que ces deux points de vue antagonistes pourraient s'expliquer par une gestion modulaire de la navigation, permettant des apprentissages différenciés et parallèles de plusieurs stratégies, et dont le mécanisme de sélection pourrait favoriser soit les compétitions entre amers, soit la nécessité de leur intégration. Cette thèse vise à concevoir un modèle computationnel de sélection de stratégies de navigation qui concilie les deux théories ou, a minima, y apporte des éléments de débats. La conception du modèle computationnel proposé dans ce travail et sous-tendu par cette hypothèse a nécessité de fait la mise en place d'une règle de sélection ne dépendant pas de la nature de l'apprentissage des stratégies et pouvant privilégier soit certains amers, soit l'utilisation d'une représentation spatiale construite avec plusieurs amers. Ce modèle sélectionne en ligne des stratégies apprises par des algorithmes d'apprentissage procéduraux (apprentissage par renforcement) et déclaratifs (recherche de graphe). Ces acquisitions s'effectuent en parallèle et peuvent favoriser une coopération entre les stratégies, car chacune peut apprendre des comportements de l'autre. Le module de sélection de ces stratégies peut inciter des interactions compétitives, car il effectue ses choix sur la base d'un apprentissage de type associatif. L'existence d'un tel module de sélection, indépendant des systèmes d'apprentissage des stratégies, est corroboré par certains travaux récents démontrant l'implication de structures du cortex préfrontal et des ganglions de la base dans cette fonction. Le dispositif expérimental utilisé est la piscine de Morris, dans laquelle le comportement spatial de rats a été étudié de façon approfondie depuis une trentaine d'années. Nous avons limité nos analyses, d'une part, aux interactions entre stratégies de guidage (utilisant directement des indices visuels) et stratégies de lieu (utilisant une représentation spatiale construite à partir de cellules de lieu simulées par un modèle d'hippocampe intégré au modèle) et, d'autre part, à la recherche d'un seul but, dépendant d'un seul système motivationnel. Après avoir démontré le comportement du modèle dans des situations où seuls certains types d'amers (proximaux ou distaux) sont présents, nous avons reproduit diverses expériences dans lesquelles l'influence de l'interaction de ces types d'amers a donné lieu à des interprétations issues de l'une ou de l'autre des deux théories antagonistes. Nous y apportons un corpus d'explications, conciliant à la fois les données neurobiologiques et comportementales, ainsi que des prédictions comportementales qui permettront aux neurobiologistes d'estimer l'utilité de ce modèle. Nous avançons notamment que l'utilisation d'une stratégie fondée sur une carte cognitive (intégration d'amers) ne peut pas être écartée, car elle se révèle indispensable pour expliquer certains effets de blocage ou d'occultation caractéristiques de la théorie associative. Nous suggérons aussi que l'existence de deux stratégies de guidage, l'une ayant un cadre de référence égocentré (apprenant les trajets conduisant au but en fonction de l'orientation du corps), l'autre un cadre de référence allocentré (apprenant une direction générale conduisant au but en fonction d'un repère absolu) doit nécessairement être prise en compte pour générer certaines interactions compétitives ou coopératives observées entre systèmes de navigation. Nous montrons aussi qu'une intégration d'amers n'est pas forcément utilisée par les animaux car une stratégie de guidage allocentrée, même fondée sur une compétition d'amers, peut être suffisante dans certains contextes pour expliquer leur comportement. En résumé, ce modèle de navigation, associant des systèmes parallèles d'apprentissage procéduraux et déclaratifs et sélectionnés par un mécanisme procédural, est en mesure de proposer une architecture computationnelle qui pourrait concilier les hypothèses issues des théories associative et cognitive du comportement spatial. Ce travail a également une retombée dans le domaine de la robotique, proposant par cette architecture une augmentation de l'autonomie dans la navigation d'un système artificiel, pouvant sélectionner en ligne les stratégies les plus efficaces pour atteindre ses ressources.
26

Ngandeu, Joseph blaise. "Apprentissage du français dans une université anglophone au Cameroun : de l’expérience du quasi-synchrone à un nouveau modèle d’intégration des TIC." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF20023/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les Technologies de l’Information et de la Communication (TIC) font désormais partie du paysage de nombreux établissements d’enseignement supérieur, secondaire et même primaire en Afrique. Les avantages pour l’Institution, l’enseignant et l’apprenant sont avérés (Mvoto Meyong, 2010). Cependant les expériences, à l’échelle des établissements de formation, sont encore peu nombreuses et peu concluantes. Cette thèse porte sur l’intégration des TIC dans un cours de français pour anglophones à l’université de Buéa au Cameroun. Le cours traditionnel, dans sa version uniquement présentiel en classe, se déroule dans un contexte limitant fortement la satisfaction d’objectifs pédagogiques essentiels. En effet, les effectifs pléthoriques, le peu de temps alloué à la formation, l’hétérogénéité des groupes d’apprenants font que les compétences de production ainsi que les compétences en interaction des intéressés ne peuvent être développées. En réponse à cet existant, cette thèse, de type recherche-action, présente un dispositif hybride articulant travail en classe et dans le centre technologique de l’université. Là sont offertes des activités de communication en petits groupes dans une modalité quasi-synchrone. Cette modalité, peu souvent étudiée dans la littérature de recherche, offre une alternative réaliste aux environnements synchrones peu fiables, compte tenu de l’état des réseaux et de l’Internet dans cette partie du monde. Afin d’étudier si ce nouveau dispositif de formation permet de dépasser les difficultés évoquées et de faciliter l’apprentissage, je l’ai déployé deux années successives, en l’entourant d’un protocole de recherche. Les données recueillies m’ont permis d’analyser les interactions, de mettre en évidence les traces d’apprentissage. Mais cette double expérimentation apporte aussi un nouvel éclairage au travers de l’analyse des obstacles qui ont handicapé la mise en œuvre du dispositif technopédagogique. Je questionne le modèle d’intégration des TIC qui traditionnellement concentre toutes les ressources en un seul endroit, sans tenir compte des contextes technologiquement limités. J’esquisse une voie alternative destinée, grâce à l’apprentissage mobile, à intégrer les TIC dans des dispositifs de formation de langues et un contexte technologique proches de notre situation prototypique
Information and Communication Technologies are now part of the life of many institutions of higher education, secondary education and even primary education. The benefits for these institutions, as well as for teachers and learners are established. However, there are very few cases of experiments carried out in learning Institutions with positive results. This thesis is about integrating ICTs into a French course in the Anglo-Saxon university of Buea in Cameroon. The context in which the course is taught in classrooms makes it difficult for the objectives to be met. Because of the large class size, the little time allocated to the course and the heterogeneous nature of students’ language levels, speaking, writing and interactional skills are not worked out in class. This action research thesis sets out to propose a blended learning set-up that hinges around the university IT Centre. Online classes are articulated with classroom sessions. Thus, students have the opportunity to involve in small groups, in communicative activities and in quasi synchronous mode. These communication modality, very often less studied by CMC researchers, is an efficient alternative to synchronous communication and environments that are very much reliable as far as internet quality is concerned in that part of the world. The general question that has driven the research is: How can a technology instrumented approach help in overcoming difficulties and ease learning? To answer that question, two technology based experiences were carried out. They were guided by a research protocol. Data collected enable me to analyse interactions and determine traces of language acquisition. From the circumstances surrounding the experiments, it is discovered that there are a number of obstacles to the integration of ICT in “low tech context” like that which is studied. The technology-based stet-up pattern is then questioned. This research work goes further to propose mobile learning as an alternative to the ICT integration model that concentrates all the resources in a single location
27

Schwint, Didier. "Le savoir artisan de fabrication et le modèle de la mètis : exemple des tourneurs et tabletiers sur bois du Jura." Poitiers, 1999. http://www.theses.fr/1999POIT5001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En partant des tourneurs et tabletiers observés dans le jura, l'auteur soutient la thèse selon laquelle le savoir technique des artisans de fabrication est largement empreint du modèle de la mètis grecque, cette intelligence pratique et rusée décrite par Détienne et Vernant, et qui permettrait à l'artisan, à partir d'un faible capital économique et scolaire, d'atteindre une bonne efficacité technique, économique, sociale et symbolique. Ce savoir de la mètis est rendu nécessaire en l'absence de dispositifs et de solutions disponibles, résultant de la précarité de leur contexte de travail qui augmente considérablement le nombre des aléas. Cette situation oblige l'artisan à construire ses propres réponses, à partir des éléments précis de la situation et de la pratique, dans une démarche essentiellement inductive et expérimentale, de façon la plus économique possible, en terme d'outils, de corps et de matières, mais aussi de combinaison entre ces trois éléments. La démonstration s'appuie sur une description de la fabrication d'un objet, permettant la construction des principaux traits de la logique de ce savoir, que l'on retrouve dans quelques figures formalisées comme le coup d'oeil, le coup de main ou la combine, traits ensuite comparés avec ceux de la mètis de Détienne et Vernant, Certeau et Julien. Cette notion de métis devient, dans un second temps un outil : pour analyser la pratique du chercheur, déjà questionnée dans une première partie méthodologique ; pour interroger la science, qui prône plutôt le général, la référence au modèle, la théorie, une démarche déductive, et qui exclut amplement l'aléatoire, le temps et le sujet ; pour engager une sociologie de la connaissance, en réfléchissant notamment sur nos catégories de lecture et d'analyse ; pour mettre finalement en question notre système dominant de valeurs et de mythes.
28

Maza, Elie. "Prévision de trafic routier par des méthodes statistiques : espérance structurelle d’une fonction aléatoire." Toulouse 3, 2004. http://www.theses.fr/2004TOU30238.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la première partie de cette thèse, nous décrivons une méthode de prévision de temps de parcours sur le réseau autoroutier d'Île-de-France. Cette méthode est basée sur un modèle de mélange. Les paramètres sont estimés par une classification automatique et par apprentissage. La deuxième partie est consacrée à l'étude d'un modèle semi-paramétrique de translation de courbe. Les estimations sont effectuées par une méthode de M-estimation. Nous montrons la consistance et la normalité asymptotique des estimateurs. Dans la troisième partie, nous élargissons le modèle de déformation de courbe en considérant que les déformations sont issues d'un processus aléatoire. Cela nous permet de définir, de manière intrinsèque, une notion d'espérance structurelle et de pallier ainsi à la non identifiabilité du modèle. Nous proposons un estimateur empirique de cette espérance structurelle et en montrons la consistance et la normalité asymptotique
In the first part of this thesis, we describe a travel time forecasting method on the Parisian motorway network. This method is based on a mixture model. Parameters are estimated by an automatic classification method and a training concept. The second part is devoted to the study of a semi-parametric curve translation model. Estimates are carried out by an M-estimation method. We show the consistency and the asymptotic normality of the estimators. In the third part, we widen the function warping model by considering that the warping functions result from a random process. That enables us to define, in an intrinsic way, a concept of structural expectation and thus to get round the non identifiability of the model. We propose an empirical estimator of this structural expectation and we show consistency and asymptotic normality
29

Bonidal, Rémi. "Sélection de modèle par chemin de régularisation pour les machines à vecteurs support à coût quadratique." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0066.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sélection de modèle est un thème majeur de l'apprentissage statistique. Dans ce manuscrit, nous introduisons des méthodes de sélection de modèle dédiées à des SVM bi-classes et multi-classes. Ces machines ont pour point commun d'être à coût quadratique, c'est-à-dire que le terme empirique de la fonction objectif de leur problème d'apprentissage est une forme quadratique. Pour les SVM, la sélection de modèle consiste à déterminer la valeur optimale du coefficient de régularisation et à choisir un noyau approprié (ou les valeurs de ses paramètres). Les méthodes que nous proposons combinent des techniques de parcours du chemin de régularisation avec de nouveaux critères de sélection. La thèse s'articule autour de trois contributions principales. La première est une méthode de sélection de modèle par parcours du chemin de régularisation dédiée à la l2-SVM. Nous introduisons à cette occasion de nouvelles approximations de l'erreur en généralisation. Notre deuxième contribution principale est une extension de la première au cas multi-classe, plus précisément à la M-SVM². Cette étude nous a conduits à introduire une nouvelle M-SVM, la M-SVM des moindres carrés. Nous présentons également de nouveaux critères de sélection de modèle pour la M-SVM de Lee, Lin et Wahba à marge dure (et donc la M-SVM²) : un majorant de l'erreur de validation croisée leave-one-out et des approximations de cette erreur. La troisième contribution principale porte sur l'optimisation des valeurs des paramètres du noyau. Notre méthode se fonde sur le principe de maximisation de l'alignement noyau/cible, dans sa version centrée. Elle l'étend à travers l'introduction d'un terme de régularisation. Les évaluations expérimentales de l'ensemble des méthodes développées s'appuient sur des benchmarks fréquemment utilisés dans la littérature, des jeux de données jouet et des jeux de données associés à des problèmes du monde réel
Model selection is of major interest in statistical learning. In this document, we introduce model selection methods for bi-class and multi-class support vector machines. We focus on quadratic loss machines, i.e., machines for which the empirical term of the objective function of the learning problem is a quadratic form. For SVMs, model selection consists in finding the optimal value of the regularization coefficient and choosing an appropriate kernel (or the values of its parameters). The proposed methods use path-following techniques in combination with new model selection criteria. This document is structured around three main contributions. The first one is a method performing model selection through the use of the regularization path for the l2-SVM. In this framework, we introduce new approximations of the generalization error. The second main contribution is the extension of the first one to the multi-category setting, more precisely the M-SVM². This study led us to derive a new M-SVM, the least squares M-SVM. Additionally, we present new model selection criteria for the M-SVM introduced by Lee, Lin and Wahba (and thus the M-SVM²). The third main contribution deals with the optimization of the values of the kernel parameters. Our method makes use of the principle of kernel-target alignment with centered kernels. It extends it through the introduction of a regularization term. Experimental validation of these methods was performed on classical benchmark data, toy data and real-world data
30

Hanna, Elias. "Improving Novelty Search Sample Efficiency with Models or Archive Bootstrapping." Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS038.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte de la recherche de politiques pour les systèmes robotiques, l'efficacité en données est une priorité. Les algorithmes évolutionnaires ont été utilisés au cours des dix dernières années pour obtenir des résultats significatifs dans le domaine de la robotique, car leur approche darwiniste de l'optimisation leur permet de contourner les problèmes souvent rencontrés par les méthodes d'optimisation basées sur le gradient de la récompense, telles que l'apprentissage par renforcement. Néanmoins, ces méthodes restent très coûteuses en données et presque impossibles à transférer directement sur un système robotique réel. Cette thèse de doctorat s'intéresse à la résolution de ce problème d'efficacité en données, en particulier pour l'algorithme Novelty Search, un algorithme évolutionnaire basé sur la nouveauté. L'incorporation de modèles appris dans le processus d'optimisation a été une solution à l'efficacité en données pendant de nombreuses années, mais peu de travaux abordent cette question dans le cadre de la recherche de nouveauté. Trois axes de recherche dans ce cadre sont explorés dans ce manuscrit. Tout d'abord, l'impact du pré-entraînement du modèle appris avec des données recueillies à l'aide de processus aléatoires de corrélation temporelle variable est évalué. Il est démontré sur des algorithmes issus de l'état de l'art que l'impact est négligeable sur un algorithme évolutionnaire utilisant un modèle appris, mais qu'il est significatif sur un algorithme d'apprentissage par renforcement basé modèle avec des récompenses initiales jusqu'à dix fois plus grandes entre le meilleur et le pire processus aléatoire utilisé. Deuxièmement, une étude préliminaire est réalisée sur une nouvelle approche visant à orienter la population initiale de l'algorithme Novelty Search vers une population plus diversifiée sur le plan comportemental en utilisant des ensembles de modèles dynamiques aléatoires. Il est montré que cette approche réduit avec succès le nombre d'évaluations requises par la recherche de nouveauté pour couvrir l'environnement d'une base mobile à deux roues. Il est également démontré que cette approche échoue sur un environnement de locomotion plus complexe d'un robot hexapode, et que le manque de diversité capturé par les ensembles de modèles aléatoires utilisés en est la cause. Enfin, un nouvel algorithme évolutionnaire basé sur les modèles, appelé Model-Based Novelty Search, est proposé, dans le but de préserver les fortes capacités d'exploration de Novelty Search tout en réduisant le nombre d'évaluations nécessaires pour atteindre la même couverture de l'espace comportemental. Les résultats obtenus sur trois tâches robotiques montrent une réduction de l'utilisation de données 30 % à 75 % selon la tâche considérée tout en conservant la même couverture de l'espace comportemental, ce qui constitue une avancée significative vers un algorithme de recherche de nouveauté plus efficace en termes d'échantillons
In the context of policy search for robotic systems, being sample-efficient is a most. Evolutionary Algorithms have been used in the past ten years to achieve significant results in the robotics domain as their Darwinist approach to optimization allows them to bypass problems often encountered by gradient-based optimization methods like Reinforcement Learning. Nevertheless, such methods remain sample greedy and almost impossible to transfer directly onto a real robotic system. This Ph.D thesis takes interest in solving that sample-efficiency problem, especially for the Novelty Search algorithm, a novelty-driven Evolutionary Algorithm. Incorporating learned models in the optimization process has been a solution towards sample-efficiency for many years, but few works address this within the Novelty Search framework. Three research axis within that framework are explored in this manuscript. Firstly, the impact of pre-training the learned model with data gathered using random processes of varying time-correlation is evaluated. It is shown that the impact is negligible on a state-of-the-art model-based Evolutionary Algorithm, but that it is significant on a model-based Reinforcement Learning algorithm with returns with up to ten-fold differences between the best and worst random process used. Secondly, a preliminary study is made on a new approach aiming at biasing the initial population of the Novelty Search algorithm towards a more behavioraly diverse one using random dynamics models ensembles. It is shown that this approach successfully reduces the number of evaluations required by Novelty Search to cover the environment of a two-wheeled robot. It is also shown that this approach fails on a more complex locomotion environment of an hexapod robot, and the lack of diversity captured by the random models ensembles used is determined as the cause. Finally, a new model-based Evolutionary Algorithm, dubbed Model-Based Novelty Search, is proposed, with the aim of preserving the strong exploration capabilities of Novelty Search while reducing the numbers of evaluations needed to reach the same coverage of the Behavioral Space. Results on three robotic tasks show a reduction in sample usage compared to Novelty Search of 30% up to 75% depending on the considered task, a significant advance towards a more sample-efficient Novelty Search algorithm
31

Bonidal, Rémi. "Sélection de modèle par chemin de régularisation pour les machines à vecteurs support à coût quadratique." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0066/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sélection de modèle est un thème majeur de l'apprentissage statistique. Dans ce manuscrit, nous introduisons des méthodes de sélection de modèle dédiées à des SVM bi-classes et multi-classes. Ces machines ont pour point commun d'être à coût quadratique, c'est-à-dire que le terme empirique de la fonction objectif de leur problème d'apprentissage est une forme quadratique. Pour les SVM, la sélection de modèle consiste à déterminer la valeur optimale du coefficient de régularisation et à choisir un noyau approprié (ou les valeurs de ses paramètres). Les méthodes que nous proposons combinent des techniques de parcours du chemin de régularisation avec de nouveaux critères de sélection. La thèse s'articule autour de trois contributions principales. La première est une méthode de sélection de modèle par parcours du chemin de régularisation dédiée à la l2-SVM. Nous introduisons à cette occasion de nouvelles approximations de l'erreur en généralisation. Notre deuxième contribution principale est une extension de la première au cas multi-classe, plus précisément à la M-SVM². Cette étude nous a conduits à introduire une nouvelle M-SVM, la M-SVM des moindres carrés. Nous présentons également de nouveaux critères de sélection de modèle pour la M-SVM de Lee, Lin et Wahba à marge dure (et donc la M-SVM²) : un majorant de l'erreur de validation croisée leave-one-out et des approximations de cette erreur. La troisième contribution principale porte sur l'optimisation des valeurs des paramètres du noyau. Notre méthode se fonde sur le principe de maximisation de l'alignement noyau/cible, dans sa version centrée. Elle l'étend à travers l'introduction d'un terme de régularisation. Les évaluations expérimentales de l'ensemble des méthodes développées s'appuient sur des benchmarks fréquemment utilisés dans la littérature, des jeux de données jouet et des jeux de données associés à des problèmes du monde réel
Model selection is of major interest in statistical learning. In this document, we introduce model selection methods for bi-class and multi-class support vector machines. We focus on quadratic loss machines, i.e., machines for which the empirical term of the objective function of the learning problem is a quadratic form. For SVMs, model selection consists in finding the optimal value of the regularization coefficient and choosing an appropriate kernel (or the values of its parameters). The proposed methods use path-following techniques in combination with new model selection criteria. This document is structured around three main contributions. The first one is a method performing model selection through the use of the regularization path for the l2-SVM. In this framework, we introduce new approximations of the generalization error. The second main contribution is the extension of the first one to the multi-category setting, more precisely the M-SVM². This study led us to derive a new M-SVM, the least squares M-SVM. Additionally, we present new model selection criteria for the M-SVM introduced by Lee, Lin and Wahba (and thus the M-SVM²). The third main contribution deals with the optimization of the values of the kernel parameters. Our method makes use of the principle of kernel-target alignment with centered kernels. It extends it through the introduction of a regularization term. Experimental validation of these methods was performed on classical benchmark data, toy data and real-world data
32

Pinguet, Jérémy. "Contribution à la synthèse de contrôleurs neuronaux robustes par imitation." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à l'élaboration de systèmes de contrôle par imitation de comportements ou de décisions répondant à des exigences complexes. L'objectif est de réaliser l'apprentissage d'un contrôleur neuronal de façon efficace et robuste sur une base de données regroupant ces comportements.L'approche retenue unifie les outils de la commande robuste avec ceux de la modélisation par réseaux de neurones. Des méthodes d'identification de systèmes dynamiques sont tout d'abord développées selon des structures neuronales en cohésion avec les représentations de systèmes linéaires à paramètres variants. L'accès à ce domaine d'étude ouvre alors la voie à l'analyse de stabilité et de performance de ces types de modèles neuronaux.Les travaux proposent par la suite d'exploiter ces propriétés afin de répondre aux enjeux de robustesse inhérents à l'apprentissage de lois de commande. La méthode d'identification de contrôleurs robustes qui est proposée, repose sur l'évaluation des marges de stabilité de l'asservissement neuronal. Il est alors permis de consolider la robustesse des contrôleurs à travers une stratégie d'apprentissage avec optimisation de la stabilité par une formulation multi-objectifs. En complément, le déploiement des contrôleurs est effectué selon une méthode de contrôle adaptative multi-modèle.La démarche est finalement appliquée aux pilotes automatiques d'avion via une co-simulation avec un simulateur de vol caractérisé par sa grande fiabilité de modélisation. Les problématiques de contrôle abordées sont, dans un premier temps de guider l'appareil selon un cap et une altitude donnés, tandis qu'une seconde expérimentation se concentre sur le suivi d'un chemin de vol constitué d'une série de points de passage. Les autopilotes neuronaux sont développées par l'imitation d'un autopilote existant puis par l'imitation d'un pilote
This thesis focuses on developing control systems by imitating behaviors or decisions meeting complex requirements. The objective is to perform the learning of a neural controller efficiently and robustly on a database containing these behaviors.The chosen approach unifies robust control tools with those of neural network modeling. Methods for identifying dynamic systems are first developed according to neural structures in cohesion with the representations of linear systems with varying parameters. Access to this field of study opens the way to stability and performance analysis of these neural models.The work then proposes to exploit these properties to address the robustness issues inherent to the learning of control laws. The proposed method of identifying robust controllers is based on evaluating the stability margins of the neural feedback loop. It is then possible to consolidate the robustness of the controllers through a learning strategy with stability optimization by a multi-objective formulation. In addition, the deployment of the controllers is performed using a multi-model adaptive control method.The approach is finally applied to aircraft autopilots via a co-simulation with a flight simulator characterized by its high modeling reliability. The control issues addressed are, in the first step, to guide the aircraft according to a given heading and altitude, while a second experiment focuses on following a flight path consisting of a series of waypoints. The neural autopilots are developed by imitating an existing autopilot and then by imitating a pilot
33

Ottonelli, Claudio. "Apprentissage statistique de modèles réduits non-linéaires par approche expérimentale et design de contrôleurs robustes: le cas de la cavité ouverte." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-01065782.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la conception d'un contrôle en boucle fermée d'un écoulement de cavité subsonique. L'objectif est de réaliser un contrôleur qui dépend seulement de grandeurs observables expérimentalement et qui gère des situations où les écoulements sont excités par des perturbations aléatoires extérieures. Pour faire face à ces deux aspects essentiels, deux stratégies ont été définies: l'identification d'un modèle non-linéaire reproduisant la dynamique de l'écoulement à partir seulement d'informations mesurables et la conception d'un compensateur linéaire robuste, basée sur la théorie du contrôle H∞, qui incorpore des propriété de robustesse dans la définition de la fonction objectif. La première partie de la thèse est consacrée à l'identification d'un modèle non-linéaire grâce à des données obtenues à partir d'une expérience menée dans la soufflerie subsonique (M = 0.1) S19 sur le site Chalais-Meudon de l'ONERA. Afin de décrire la dynamique de cet écoulement, et en particulier son contenu fréquentiel, l'écoulement sans contrôle a été caractérisé par des mesures par fil chaud et de pression instationnaire et par des clichés de vélocimétrie par images des particules (PIV) résolue en temps. Un filtrage temporel a été appliqué avec succès aux clichés PIV afin d'extraire la dynamique basse fréquence de l'écoulement. Cette étape est indispensable pour pouvoir gérer des écoulements turbulents caractérisés par un spectre fréquentiel très étendu. Les modes POD obtenus ont été utilisés comme base de projection pour le champ de vitesse et les trajectoires associées ont été interpolées (apprentissage statistique) sur une structure de modèle non-linéaire autorégressif exogène (NLARX). Il s'avère que les modèles obtenus ne sont pas robustes, dans le sens où ils ne parviennent pas à reproduire la dynamique d'un ensemble de données de validation, une fois adaptés à un ensemble de données d'apprentissage. Il a été démontré que cet échec est dû aux fortes non-linéarités observées dans l'écoulement de cavité, qui rendent impraticables les méthodes d'identification. La deuxième partie de la thèse est consacrée à la conception d'un contrôleur robuste à partir de simulations numériques d'un écoulement de cavité carrée, incompressible et en régime transitionnel, pour différents nombres de Reynolds. Diverses méthodes de synthèse de contrôleur ont été testées et évaluées en utilisant plusieurs mesures de robustesse. On a constaté que la technique traditionnelle de contrôle linéaire quadratique gaussien (LQG) présente une faible robustesse aux perturbations extérieures, tandis que d'autres, comme la technique LTR (Loop Transfer Recovery) et les contrôleurs basés sur les perturbations "les pires" (worst-case), améliorent la robustesse, mais pas suffisamment pour faire face à la forte non-linéarité de l'écoulement. Dans ce but, on met en place un contrôleur qui optimise les propriétés de robustesse par rapport à des incertitudes de type "entrée-multiplicative" et de type "entrée vers sortie". Celui-ci présente des marges de robustesse fortement augmentées par rapport à l'introduction de perturbations de la partie stable de la dynamique entré-sortie, même si le prix à payer en terme de performance est significatif. Une stratégie pour prendre en compte également des perturbations de la partie instable de la dynamique entrée-sortie, comme celles obtenues par un changement du nombre de Reynolds, a été présentée.
34

Aguirre, Cervantes José Luis. "Construction automatique de taxonomies à partir d'exemples dans un modèle de connaissances par objets." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0067.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Madi, wamba Gilles. "Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0045/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours de la dernière décennie les technologies de cloud computing ont connu un essor considérable se traduisant par la montée en flèche de la consommation électrique des data center. L’ampleur du problème a motivé de nombreux travaux de recherche s’articulant autour de solutions de réduction statique ou dynamique de l’enveloppe globale de consommation électrique d’un data center. L’objectif de cette thèse est d’intégrer les sources d’énergie renouvelables dans les modèles d’optimisation dynamique d’énergie dans un data center. Pour cela nous utilisons la programmation par contraintes ainsi que des techniques d’apprentissage machine. Dans un premier temps, nous proposons une contrainte globale d’intersection de tâches tenant compte d’une ressource à coûts variables. Dans un second temps, nous proposons deux modèles d’apprentissage pour la prédiction de la charge de travail d’un data center et pour la génération de telles courbes. Enfin, nous formalisons le problème de planification énergiquement écologique (PPEE) et proposons un modèle global à base de PPC ainsi qu’une heuristique de recherche pour le résoudre efficacement. Le modèle proposé intègre les différents aspects inhérents au problème de planification dynamique dans un data center : machines physiques hétérogènes, types d’applications variés (i.e., applications interactives et applications par lots), opérations et coûts énergétiques de mise en route et d’extinction des machines physiques, interruption/reprise des applications par lots, consommation des ressources CPU et RAM des applications, migration des tâches et coûts énergétiques relatifs aux migrations, prédiction de la disponibilité d’énergie verte, consommation énergétique variable des machines physiques
Over the last decade, cloud computing technologies have considerably grown, this translates into a surge in data center power consumption. The magnitude of the problem has motivated numerous research studies around static or dynamic solutions to reduce the overall energy consumption of a data center. The aim of this thesis is to integrate renewable energy sources into dynamic energy optimization models in a data center. For this we use constraint programming as well as machine learning techniques. First, we propose a global constraint for tasks intersection that takes into account a ressource with variable cost. Second, we propose two learning models for the prediction of the work load of a data center and for the generation of such curves. Finally, we formalize the green energy aware scheduling problem (GEASP) and propose a global model based on constraint programming as well as a search heuristic to solve it efficiently. The proposed model integrates the various aspects inherent to the dynamic planning problem in a data center : heterogeneous physical machines, various application types (i.e., ractive applications and batch applications), actions and energetic costs of turning ON/OFF physical machine, interrupting/resuming batch applications, CPU and RAM ressource consumption of applications, migration of tasks and energy costs related to the migrations, prediction of green energy availability, variable energy consumption of physical machines
36

Verzat, Caroline. "Les logiques d'apprentissage collectif en recherche industrielle. Modèle de compréhension et de pilotage par les situations-type : recherche-action à la direction de la recherche de PSA-Peugeot-Citroën." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Tencé, Fabien. "Modèle probabiliste de comportement et algorithme d'apprentissage par imitation pour les personnages crédibles dans les jeux vidéo." Phd thesis, Université de Bretagne occidentale - Brest, 2011. http://tel.archives-ouvertes.fr/tel-00667072.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit cherche à concevoir un modèle de comportement pour le contrôle de personnages crédibles dans les jeux vidéo. Nous définissons un personnage crédible comme un programme informatique capable de contrôler une représentation virtuelle de façon à ce que des observateurs dans l'environnement virtuel pensent que la représentation est contrôlée par un humain. Nous établissons 10 critères plus précis pour établir notre thèse. Pour répondre à ces 10 critères nous avons étudié des modèles développés à la fois dans le domaine académique et de l'industrie. L'évolution étant un des critères, nous avons aussi étudié les algorithmes d'apprentissages existants, notamment ceux basés sur l'imitation étant le mieux adaptés à la crédibilité. De ces études nous avons conclu que le modèle de Le Hy était une excellente base pour de futurs développements. Nous utilisons l'approche de Le Hy mais nous avons effectué des choix différents en vue d'une meilleur crédibilité. Nous proposons un raffinement sémantique et un mécanisme d'attention pour réduire le nombre de paramètres dans le modèle et améliorer le comportement. Un algorithme est ajouté pour permettre au personnage de s'orienter dans l'environnement et un l'algorithme d'apprentissage des paramètres du modèles a été repensé. Ces propositions permettent au modèle d'apprendre rapidement des associations stimuli-actions qui ressemblent à des comportement humains. Cependant de mauvaise associations sont aussi faites rendant le comportement non crédible. Selon nos mesures, notre modèle donne de meilleurs résultats en terme de crédibilité que le modèle de Le Hy, mais des améliorations restent encore à faire pour atteindre notre objectif.
38

Ji, Hyungsuk. "Étude d'un modèle computationnel pour la représentation du sens des mots par intégration des relations de contexte." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00008384.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous présentons une approche théorique du concept et un modèle linguistico-informatique. Cette théorie, non définitionnelle, est fondée sur une représentation gaussienne du concept. Nous introduisons le terme contexonyme, une formalisation de la relation de contexte entre les mots. Cette notion lie la théorie du concept au modèle informatique. Basé sur ces deux notions, notre modèle informatique apprend des contexonymes de manière automatique à partir de corpus de taille importante non annotés. Pour chaque mot donné, le modèle propose la liste de ses contexonymes et les organise par une méthode de classification hiérarchique. Les contexonymes ainsi obtenus reflètent des connaissances encyclopédiques ainsi que diverses caractéristiques langagières comme l'usage des mots ou encore les fines différences sémantiques entre synonymes. Les résultats sur des tests montrent que le modèle peut être utilisé pour des tâches de TAL ainsi que comme ressource lexicale dynamique.
39

Kambale, Bernard. "Modèle de m-learning et conception d'applications mobiles comme outils de support pour l'enseignement à distance en informatique et génie logiciel." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31325.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses études menées dans le domaine de l'éducation ont révélé que l'apprentissage mobile apparaît de plus en plus comme une méthode d'apprentissage efficace avec l'utilisation des téléphones intelligents. Toujours opérationnels et facilement transportables, les téléphones intelligents peuvent être utilisés n'importe où, à n'importe quel moment et dans n'importe quel contexte. Considérant ce potentiel des téléphones intelligents dans notre société actuelle, nous présentons dans ce mémoire un modèle de l'apprentissage mobile conçu comme outil de support d'apprentissage en informatique et génie logiciel. Pour atteindre ce but, nous présentons d'abord les efforts qui tentent d'intégrer le téléphone intelligent parmi les outils de programmation. Dans ce sens, nous montrons des exemples d'utilisation des applications mobiles de programmation. Nous démontrons ensuite que le téléphone intelligent a des limites qui rendent l'exercice de programmation non efficace. Compte tenu de ces limites, nous montrons que, en particulier pour les cours de programmation, l'apprentissage mobile joue pleinement son rôle lorsqu'il permet d'accéder à l'information utile, de manière continue pour soutenir le processus d'apprentissage. Ainsi, nous arrivons à la conception de l'apprentissage mobile comme outil de support d'apprentissage en informatique et génie logiciel. Dans ce sens, l'apprentissage mobile offre un environnement d'accès aux mises à jour sur le travail planifié, aux notifications, aux commentaires, aux échéanciers de tâches, aux nouvelles tâches à réaliser, etc. Ensuite, après avoir étudié différents styles architecturaux et différents types d'applications, nous présentons des possibilités d'implémentation de ce modèle de l'apprentissage mobile. Nous identifions l'architecture hybride de développement d'applications mobiles comme l'architecture idéale pour concevoir et développer des outils de l'apprentissage mobile. Nous montrons le fonctionnement de cette architecture hybride en utilisant l'infrastructure logicielle Apache Cordova pour produire des outils d'apprentissage à la fois personnalisables et portables.
Many studies undertaken in the field of education have revealed that m-learning is emerging more and more as an effective learning method with the use of smartphones. Always turned on and easily transported, smartphones can be used anywhere, at any given time and in any context. Considering this potential of smartphones in our current society, in this thesis we present an m-learning model designed as a learning support tool in computer science and software engineering. To achieve this goal, we first show the existing efforts to integrate smartphones into programming tools. Following the same idea, we show examples of using mobile applications for programming. We then demonstrate that smartphones have limitations that make the programming exercise ineffective. Given these limitations, we show that, especially for programming courses, m-learning plays its role fully when it provides access to useful information on an ongoing basis to support the learning process. Thus, we come up with the design of m-learning as a learning support tool in computer science and software engineering. In this sense, m-learning provides an environment to receive updates on the planned work, notifications, comments, task schedules, new tasks to be performed, etc. Then, after having studied different architectural styles and different types of applications, we present possibilities of implementation of this m-learning model. We identify the hybrid architecture as the ideal architecture for designing and developing m-learning tools. We show how this hybrid architecture works by using the Apache Cordova Framework to produce m-learning tools that are both customizable and portable.
40

Lefebvre, Germain. "Sélection d'un modèle d'apprentissage pour rendre compte de la spéculation dans un paradigme de prospection monétaire." Thesis, Paris 2, 2018. http://www.theses.fr/2018PA020010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse de doctorat propose une analyse empirique des microfondations des phénomènes monétaires macroéconomiques, et plus particulièrement des processus d'apprentissage et capacités cognitives requis pour qu'un équilibre émerge dans une économie expérimentale implémentantun modèle de prospection monétaire. Dans ce but, nous avons "opérationalisé" le modèle original de Kiyotaki et Wright et modélisé le comportement de sujets humains à l'aide de différents algorithmes d'apprentissage par renforcement. Nous montrons que les données comportementales sont mieux expliquées par les modèles d'apprentissage par renforcement que par les prédictions des équilibres théoriques, et que la spéculation monétaire semble s'appuyer sur la considération de coûts d'opportunité. Nos résultats constituent une nouvelle étape dans la compréhension des processus d'apprentissage à l'oeuvre dans la prise de décision multiple en économie et des microfondations cognitives de l'utilisation macroéconomique de la monnaie. Parallèlement, cette thèse de doctorat comprend une analyse plus précise de l'une des composantes fondamentales de l'apprentissage par renforcement à savoir, le processus de mise à jour des valeurs. A travers deux études, nous montrons graduellement que ce processus est biaisé en faveur des informations confirmatoires. En effet, nous avons trouvé que des sujets réalisant diverses tâches d'apprentissage probabiliste prenaient en compte préférentiellement les informations qui confirmaient leur pensée initiale. Ces résultats permettent une meilleure compréhension des biais d'optimisme et de confirmation au niveau neuro-computationnel
This dissertation proposes to analyze empirically the microfoundations of the macroeconomic use of money, more particularly the human learning processes and cognitive abilities requiredfor a monetary equilibrium to emerge in an experimental economy implementing a search theoretical paradigm of money emergence. To achieve this, we operationalized the original Kiyotaki and Wright search model and fitted real subjects' behaviors with different reinforcement learning algorithms. We show that reinforcement learning better explains behavioral datain comparison to theoretical equilibria predictions, and highlight the importance of opportunity costs to implement a speculative use of money. Our results constitute a new step towards the understanding of learning processes at work in multi-step economic decision making and ofthe cognitive microfoundations of the macro-economic use of money. In parallel, this dissertation also compounds in-depth analyses of one of the core components of reinforcement learning,namely the update process. In two studies, we gradually show that the latter is biased positively towards confirmatory information. Indeed, we found that subjects performing different probability learning tasks preferentially took into account information that confirme dtheir initial thoughts in contrast to information that contradicted them. These results constitute a step towards the understanding of the genesis of optimism and confirmation biases at the neurocomputational level
41

Tencé, Fabien. "Probabilistic Behaviour Model and Imitation Learning Algorithm for Believable Characters in Video Games." Brest, 2011. http://www.theses.fr/2011BRES2032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This manuscript aims at designing a behaviour model for the control of believable characters in video games. We define a believable character as a computer program able to control a virtual body in a virtual environment 80 that other human users in the environment think the virtual body is controlled by another human user. To be more precise, we define 10 requirements for a character to be believable, based on previous experiments and work. In order to fulfil these requirements, we studied the behaviour models developed both in the research and the industry. As one of the requirement is that the model is able to evolve, we had to find learning algorithms for the behaviour model. We find out that imitation is the best way to believability. With these studies in mind we find out that the behaviour model developed by Le Hy in his thesis answers to most of the requirements but has still some limitations. In this manuscript we use an approach like Le Hy’s. We first try to reduce the number of parameters in-the model. Then we replace the two mechanisms to break the complexity of the probability distributions by an attention selection mechanism. We add to the model the ability to learn by imitation the layout of environments. Finally we totally revamp the learning algorithm. The proposition makes the model able to learn how to act in the environment rapidly. Stimulus-action associations are made which the agent look-like a human player. However the learning also learns wrong associations which destroy the illusion of believability. According to our studies, our model performs better than Le Hy's but work has still to be done on the model to achieve the final goal
Ce manuscrit cherche à concevoir un modèle de comportement pour le contrôle de personnages crédibles dans les jeux vidéo. Nous définissons un personnage crédible comme un programme informatique capable de contrôler une représentation virtuelle de façon à ce que des observateurs dans l’environnement virtuel pensent que la représentation est contrôlée par un humain. Nous établissons 10 critères plus précis pour établir notre thèse. Pour répondre à ces 10 critères nous avons étudié des modèles développés à la fois dans le domaine académique et de l’industrie, L’évolution étant un des critères, nous avons aussi étudié les algorithmes d’apprentissages existants, notamment ceux basés sur l’imitation étant le mieux adaptés à la crédibilité. De ces études nous avons conclu que le modèle de Le Hy était une excellente base pour de futurs développements. Nous utilisons l’approche de Le Hy mais nous avons effectué des choix différents en vue d’une meilleur crédibilité. Nous proposons un raffinement sémantique et un mécanisme d’attention pour réduire le nombre de paramètres dans le modèle et améliorer le comportement. Un algorithme est ajouté pour permettre au personnage de s’orienter dans l’environnement et un l’algorithme d’apprentissage des paramètres du modèles a été repensé. Ces propositions permettent au modèle d’apprendre rapidement des associations stimuli-actions qui ressemblent à des comportement humains. Cependant de mauvaise associations sont aussi faites rendant le comportement non crédible. Selon nos mesures, notre modèle donne de meilleurs résultats en terme de crédibilité que le modèle de Le Hy, mais des améliorations restent encore à faire pour atteindre notre objectif
42

Caillon, Antoine. "Hierarchical temporal learning for multi-instrument and orchestral audio synthesis." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS115.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès récents en matière d'apprentissage automatique ont permis l'émergence de nouveaux types de modèles adaptés à de nombreuses tâches, ce grâce à l'optimisation d'un ensemble de paramètres visant à minimiser une fonction de coût. Parmi ces techniques, les modèles génératifs probabilistes ont permis des avancées notables dans la génération de textes, d'images et de sons. Cependant, la génération de signaux audio musicaux reste un défi. Cela vient de la complexité intrinsèque des signaux audio, une seule seconde d'audio brut comprenant des dizaines de milliers d'échantillons individuels. La modélisation des signaux musicaux est plus difficile encore, étant donné que d'importantes informations sont structurées sur différentes échelles de temps, allant du micro (timbre, transitoires, phase) au macro (genre, tempo, structure). La modélisation simultanée de toutes ces échelles implique l'utilisation de larges architectures de modèles, rendant impossible leur utilisation en temps réel en raison de la complexité de calcul. Dans cette thèse, nous proposons une approche hiérarchique de la modélisation du signal audio musical, permettant l'utilisation de modèles légers tout en offrant différents niveaux de contrôle à l'utilisateur. Notre hypothèse principale est que l'extraction de différents niveaux de représentation d'un signal audio permet d'abstraire la complexité des niveaux inférieurs pour chaque étape de modélisation. Dans un premier temps, nous proposons un modèle audio combinant Auto Encodeur Variationnel et Réseaux Antagonistes Génératifs, appliqué directement sur la forme d'onde brute et permettant une synthèse audio neuronale de haute qualité à 48 kHz, tout en étant 20 fois plus rapide que le temps réel sur CPU. Nous étudions ensuite l'utilisation d'approches autoregressives pour modéliser le comportement temporel de la représentation produite par ce modèle audio bas niveau, tout en utilisant des signaux de conditionnement supplémentaires tels que des descripteurs acoustiques ou le tempo. Enfin, nous proposons une méthode pour utiliser tous les modèles proposés directement sur des flux audio, ce qui les rend utilisables dans des applications temps réel que nous avons développées au cours de cette thèse. Nous concluons en présentant diverses collaborations créatives menées en parallèle de ce travail avec plusieurs compositeurs et musiciens, intégrant directement l'état actuel des technologies proposées au sein de pièces musicales
Recent advances in deep learning have offered new ways to build models addressing a wide variety of tasks through the optimization of a set of parameters based on minimizing a cost function. Amongst these techniques, probabilistic generative models have yielded impressive advances in text, image and sound generation. However, musical audio signal generation remains a challenging problem. This comes from the complexity of audio signals themselves, since a single second of raw audio spans tens of thousands of individual samples. Modeling musical signals is even more challenging as important information are structured across different time scales, from micro (e.g. timbre, transient, phase) to macro (e.g. genre, tempo, structure) information. Modeling every scale at once would require large architectures, precluding the use of resulting models in real time setups for computational complexity reasons.In this thesis, we study how a hierarchical approach to audio modeling can address the musical signal modeling task, while offering different levels of control to the user. Our main hypothesis is that extracting different representation levels of an audio signal allows to abstract the complexity of lower levels for each modeling stage. This would eventually allow the use of lightweight architectures, each modeling a single audio scale. We start by addressing raw audio modeling by proposing an audio model combining Variational Auto Encoders and Generative Adversarial Networks, yielding high-quality 48kHz neural audio synthesis, while being 20 times faster than real time on CPU. Then, we study how autoregressive models can be used to understand the temporal behavior of the representation yielded by this low-level audio model, using optional additional conditioning signals such as acoustic descriptors or tempo. Finally, we propose a method for using all the proposed models directly on audio streams, allowing their use in realtime applications that we developed during this thesis. We conclude by presenting various creative collaborations led in parallel of this work with several composers and musicians, directly integrating the current state of the proposed technologies inside musical pieces
43

Fernandes, Hilaire. "iSTOA, modèle notionnel de guidage macroscopique de l'apprentissage." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00498599.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les EIAH sont souvent spécialisés à un domaine bien précis. Cela leur permet d'offrir des modélisations fines du domaine et de l'apprenant. L'analyse alors pro- duite à partir des traces est didactiquement très fine et spécifique au domaine en question. Elle permet de guider l'apprenant en cas de difficulté et de lui proposer des activités de soutien. Cependant cette analyse est étroitement liée aux domaines didactiques, et différente d'un domaine à un autre. Dans la diversité des domaines enseignés, comment proposer un modèle tenant compte de cette multitude et per- mettant une analyse de l'activité de l'élève et son guidage ? Nous proposons une analyse de l'activité de l'élève hors du champ didactique pour un guidage que nous nommons macroscopique, par opposition à une analyse didactique fine. Le guidage proposé est paramétré selon le domaine afin d'être transposable. Notre approche s'appuie sur les réseaux notionnels, les étayages pédagogiques, les traces d'objets et l'inférence sur celles-ci. Leur utilisation conjointe permet la description du domaine, la modélisation de l'apprenant et son pilotage par l'EIAH. Nous présentons cette approche implantée dan ıSTOA
44

Nguyen, Huu Phuc. "Développement d'une commande à modèle partiel appris : analyse théorique et étude pratique." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2323/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En théorie de la commande, un modèle du système est généralement utilisé pour construire la loi de commande et assurer ses performances. Les équations mathématiques qui représentent le système à contrôler sont utilisées pour assurer que le contrôleur associé va stabiliser la boucle fermée. Mais, en pratique, le système réel s’écarte du comportement théorique modélisé. Des non-linéarités ou des dynamiques rapides peuvent être négligées, les paramètres sont parfois difficiles à estimer, des perturbations non maitrisables restent non modélisées. L’approche proposée dans ce travail repose en partie sur la connaissance du système à piloter par l’utilisation d’un modèle analytique mais aussi sur l’utilisation de données expérimentales hors ligne ou en ligne. A chaque pas de temps la valeur de la commande qui amène au mieux le système vers un objectif choisi a priori, est le résultat d’un algorithme qui minimise une fonction de coût ou maximise une récompense. Au centre de la technique développée, il y a l’utilisation d’un modèle numérique de comportement du système qui se présente sous la forme d’une fonction de prédiction tabulée ayant en entrée un n-uplet de l’espace joint entrées/état ou entrées/sorties du système. Cette base de connaissance permet l’extraction d’une sous-partie de l’ensemble des possibilités des valeurs prédites à partir d’une sous-partie du vecteur d’entrée de la table. Par exemple, pour une valeur de l’état, on pourra obtenir toutes les possibilités d’états futurs à un pas de temps, fonction des valeurs applicables de commande. Basé sur des travaux antérieurs ayant montré la viabilité du concept en entrées/état, de nouveaux développements ont été proposés. Le modèle de prédiction est initialisé en utilisant au mieux la connaissance a priori du système. Il est ensuite amélioré par un algorithme d’apprentissage simple basé sur l’erreur entre données mesurées et données prédites. Deux approches sont utilisées : la première est basée sur le modèle d’état (comme dans les travaux antérieurs mais appliquée à des systèmes plus complexes), la deuxième est basée sur un modèle entrée-sortie. La valeur de commande qui permet de rapprocher au mieux la sortie prédite dans l’ensemble des possibilités atteignables de la sortie ou de l’état désiré, est trouvée par un algorithme d’optimisation. Afin de valider les différents éléments proposés, cette commande a été mise en œuvre sur différentes applications. Une expérimentation réelle sur un quadricoptère et des essais réels de suivi de trajectoire sur un véhicule électrique du laboratoire montrent sacapacité et son efficacité sur des systèmes complexes et rapides. D’autres résultats en simulation permettent d’élargir l’étude de ses performances. Dans le cadre d’un projet partenarial, l’algorithme a également montré sa capacité à servir d’estimateur d’état dans la reconstruction de la vitesse mécanique d’une machine asynchrone à partir des signaux électriques. Pour cela, la vitesse mécanique a été considérée comme l’entrée du système
In classical control theory, the control law is generally built, based on the theoretical model of the system. That means that the mathematical equations representing the system dynamics are used to stabilize the closed loop. But in practice, the actual system differs from the theory, for example, the nonlinearity, the varied parameters and the unknown disturbances of the system. The proposed approach in this work is based on the knowledge of the plant system by using not only the analytical model but also the experimental data. The input values stabilizing the system on open loop, that minimize a cost function, for example, the distance between the desired output and the predicted output, or maximize a reward function are calculated by an optimal algorithm. The key idea of this approach is to use a numerical behavior model of the system as a prediction function on the joint state and input spaces or input-output spaces to find the controller’s output. To do this, a new non-linear control concept is proposed, based on an existing controller that uses a prediction map built on the state-space. The prediction model is initialized by using the best knowledge a priori of the system. It is then improved by using a learning algorithm based on the sensors’ data. Two types of prediction map are employed: the first one is based on the state-space model; the second one is represented by an input-output model. The output of the controller, that minimizes the error between the predicted output from the prediction model and the desired output, will be found using optimal algorithm. The application of the proposed controller has been made on various systems. Some real experiments for quadricopter, some actual tests for the electrical vehicle Zoé show its ability and efficiency to complex and fast systems. Other the results in simulation are tested in order to investigate and study the performance of the proposed controller. This approach is also used to estimate the rotor speed of the induction machine by considering the rotor speed as the input of the system
45

Malki, Noureddine. "Contribution au diagnostic des Systèmes à Evénements Discrets par modèles temporels et distributions de probabilité." Thesis, Reims, 2013. http://www.theses.fr/2013REIMS016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans ce mémoire de thèse représentent une contribution au problème de diagnostic des Systèmes à Evénements Discrets (SEDs). L'objectif de ce travail est dans un premier temps une proposition d'une démarche de diagnostic en exploitant l'aspect temporel caractérisant l'occurrence des événements. Pour cela, le système est modélisé par des graphes temporels appartenant au formalisme des automates temporisés. L'approche est conçue selon une architecture décentralisée afin d'éviter toute explosion combinatoire dans la construction des modèles. Elle a permis la détection et localisation des défauts abruptes survenant sur les équipements notamment en combinant des conditions d'autorisation d'événements et des fonctions de non-occurrence d'événements.Dans un second temps, les défauts graduels issus du process sont considérés. Pour cela, les contraintes temporelles exprimant les dates d'occurrence des événements dans les Templates et les Chroniques sont modélisées par des distributions de probabilités (DPs). Celles-ci sont utilisées afin de caractériser un fonctionnement normal, dégradé ou défaillant de chaque sous-système avec un certain degré de certitude. Cette identification du fonctionnement est représentée par la valeur d'un indicateur de dégradation
The work presented in this thesis represents a contribution to the problem of diagnosis in discrete event systems (DES). The objective of our work consists in a proposition for a diagnostic approach by exploiting the temporal aspect which characterizing the occurrence of events. For this, the system is modeled by temporal graphs belonging to the timed automata formwork. The approach is designed according to the decentralized architecture to avoid any combinatorial explosion in the construction of the models. It has allowed the detection and isolation of abrupt faults occurring on equipment by combining the enablement conditions of events and the Boolean functions for the non-occurrence of events.Secondly, gradual faults coming from the process its self are considerate. For this, time constraints expressing the dates of occurrence of events in the Templates and Chronicles are modeled by probability distributions (PDs). These are used to characterize normal, degraded or failed functioning of each subsystem with a degree of certainty. Identification of this functioning mode is represented by the value of a degradation indicator
46

Ouarrak, Bouazza. "Les misconceptions dans la microgenèse de l’objet technique." Thesis, Paris, CNAM, 2011. http://www.theses.fr/2011CNAM0756/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse explore les ressources cognitives que mobilisent des élèves ingénieurs dans un APP (Apprentissage par problème) dans une tâche de conception d’un objet technique. La situation-problème à laquelle ces élèves sont confrontés est constituée par un système technique inédit de réfrigération sans apport extérieur d’énergie. Dans cet apprentissage, les élèves doivent concevoir l’objet technique et apprendre des concepts en thermodynamique. Deux groupes d’élèves sont comparés : le premier dispose d’un modèle analogique d’une situation connue pour aborder la situation nouvelle, le second ne dispose que du texte. Les questions de recherches : Que construisent ces élèves comme connaissances ?Qu’apportent ces deux types d’apprentissage (l’apprentissage par une situation connue et l’apprentissage par le texte) ? Quels sont les obstacles que rencontrent ces élèves ? Les hypothèses : un apprentissage par une situation connue conduit à la construction de connaissances opératives (des concepts outils). Un apprentissage par le texte conduit à la construction de connaissances décontextualisées (des concepts objets). Un apprentissage par les situations dans un dispositif didactique conduit ultérieurement à la construction de concepts catégoriels. Ces deux types d’apprentissage impliquent l’obstacle épistémologique dans la construction des concepts dans leurs deux fonctions : outil et objet
This thesis investigates the cognitive resources that pupils engineers in a PBL (Problem based Learning) in a task of conception of a technical object mobilize. The situation-problem with which these pupils are confronted is constituted by an unpublished technical system of refrigeration without outside contribution of energy. In this learning, the pupils have to conceive the technical object and learn concepts in thermodynamics. Two groups of pupils are compared: the first one has an analogical model of a situation known to approach the new situation; the second has only the text. The questions of researches: what build these pupils as knowledge? What bring these two types of learning (the learning by a known situation and the learning by the text)? What are the obstacles which meet these pupils? The hypotheses: a learning by a known situation leads to the construction of operational knowledge (concepts tools). A learning by the text leads to the construction of knowledge out of context (concepts objects). A learning by the situations in a didactic device leads later to the construction of category-specific concepts. These two types of learning involve the epistemological obstacle in the construction of the concepts in them two functions: tool and object
47

Montandon, Véronique. "Un modèle neuronal pour la simulation opérationnelle des radiances observées par l'interféromètre spatial à haute résolution spectrale IASI." Paris 6, 2002. http://www.theses.fr/2002PA066442.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Dawoua, Kaoutoing Maxime. "Contributions à la modélisation et la simulation de la coupe des métaux : vers un outil d'aide à la surveillance par apprentissage." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les procédés de mise en forme par enlèvement de matière, encore appelés usinage, sont les procédés de fabrication les plus utilisés pour la production des pièces mécaniques, notamment dans les secteurs industriels tels que l’aéronautique, l’automobile, le ferroviaire, etc. Bien que ces procédés soient largement utilisés dans l’industrie, la prédiction des grandeurs caractéristiques de l’usinage n’est pas toujours précise, et un mauvais choix des conditions de coupe peut être a l’origine de l’usure anormale de l’outil, voire de la dégradation de la qualité de la pièce usinée. La simulation fine des grandeurs de l’usinage, en vue de la détection des anomalies, est un bon exemple de cette problématique, car représentative du problème général d’optimisation de la coupe des métaux pour obtenir une précision de coupe et anticiper l’usure rapide des outils. Cette thèse est une contribution a la modélisation et a la simulation de la coupe des métaux, en vue d’une aide a la décision aux entreprises de fabrication de pièces mécaniques, basée sur l’extraction des connaissances a partir des données simulées. Une implémentation efficiente d'un modèle analytique de coupe orthogonale de métaux, capable de prédire les paramètres de coupe en un temps réduit a été proposée. La performance de ce modèle a été étudiée en comparant ses prédictions avec les données d’usinage de l’acier 1045 et de l’acier au carbone, disponibles dans la littérature. En exploitant la rapidité de la résolution obtenue à partir de l’implémentation proposée, une grande quantité de données simulant des conditions réelles de coupe a été générée, et a permis d’élaborer une démarche de surveillance de l’usinage, basée sur une méthode d’apprentissage profond non supervisée. La mise en œuvre avec les données simulées a permis de mettre en exergue la capacité de la démarche de détection proposée a identifier les combinaisons de valeurs des paramètres d’entrée (du modèle analytique de coupe) susceptibles de provoquer une température interne anormalement élevée ; celle-ci a en effet été considérée dans la thèse comme indicateur de santé du système d’usinage. L'implémentation du modèle d'apprentissage proposé a donné un taux de justesse de 99,96 % et une précision de 96 %, traduisant ainsi sa capacité à prédire efficacement le résultat
Shaping processes by material removal, also known as machining, are the manufacturing processes most commonly used for the production of mechanical parts, particularly in industrial sectors such as aeronautics, automotive, railways, etc. Although these processes are widely used in industry, the prediction of the characteristic sizes of the machining process is not always accurate, and a poor choice of cutting conditions can lead to abnormal tool wear or even to a deterioration in the quality of the machined part. The fine simulation of machining parameters, aiming at detecting anomalies, is a good example of this problem, as it represents the general problem of optimizing metal cutting to obtain cutting accuracy and anticipate rapid tool wear. This thesis is a contribution to the modelling and simulation of metal cutting, with a view to assisting mechanical parts manufacturing companies in their decision-making, based on knowledge extraction from simulated data. An efficient implementation of an analytical model of orthogonal cutting of metals, able to predict cutting parameters in a reduced time was proposed. The performance of this model was studied by comparing its predictions with the 1045 and carbon steel machining data that are available in the literature. By using the high speed resolution obtained from the proposed implementation, a large quantity of data simulating real cutting conditions was generated, and allowed the elaboration of a machining monitoring approach, based on a deep unsupervised learning method. The implementation with the simulated data highlighted the ability of the proposed detection approach to identify combinations of input parameter values (from the analytical cutting model) that could generate an abnormally high internal temperature; this was considered in the thesis as an indicator of the health of the machining system. Implementation of the proposed learning model gave an accuracy of 99,96 % and a precision of 96%, reflecting its ability to effectively predict the outcome
49

Bauvin, Pierre. "Modélisation de la stéatose hépatique (NAFLD) et de ses facteurs de risque par apprentissage sur des données de santé." Thesis, Lille 2, 2020. http://www.theses.fr/2020LIL2S028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La stéatose hépatique non-alcoolique (NAFLD) est une maladie chronique du foie regroupant la stéatose simple à évolution lente, et la stéatohépatite non-alcoolique (NASH), forme inflammatoire accélérant son évolution. On estime qu’une personne sur quatre dans le monde est atteinte de NAFLD, et cette prévalence augmente rapidement, en parallèle avec celle de ses principaux facteurs de risque : le surpoids, l’obésité et le diabète. Cette pathologie est asymptomatique jusqu’aux complications, la cirrhose et le cancer du foie (carcinome hépatocellulaire, CHC), ce qui induit un diagnostic tardif et un impact négatif sur la morbidité et mortalité associées. De plus, le diagnostic de référence nécessite une biopsie hépatique, un examen invasif qui ne peut être réalisé en routine. En conséquence, la progression de la maladie est mal connue et son estimation peut souffrir d’un biais de sélection, vers les patients présentant des facteurs de risques importants, qui nécessitaient une biopsie en premier lieu. Mieux l’appréhender permettrait de mettre en place des stratégies diminuant son fardeau.L’approche par modélisation est appropriée pour prendre en compte l’ensemble des patients susceptibles, sans avoir à réaliser d’étude de suivi à large échelle par biopsie hépatique chez des patients en majorité asymptomatiques. Les objectifs de cette thèse sont de décrire et quantifier la progression de la NAFLD, de prédire la morbidité et mortalité associées, ainsi que d’identifier la population à risque, par modèles de Markov. Pour cela, il est nécessaire de renseigner une partie des paramètres de progression via une revue de la littérature, de caractériser les états initiaux (population susceptible de développer la NAFLD) et les états finaux (mortalité due à la NAFLD), pour en déduire les paramètres de progression manquants entre l’entrée dans la maladie et la mortalité, par rétro-calcul.Pour caractériser la mortalité due à la NAFLD de manière exhaustive, nous avons identifié tous les patients avec une cirrhose ou un CHC à partir des bases de données nationales des hôpitaux, soit plus de 380 000 patients. Nous avons ensuite élaboré un algorithme d’identification pour déterminer l’étiologie sous-jacente à la complication hépatique, à partir de l’ensemble des séjours des patients identifiés. Cet algorithme nécessite d’identifier les patients avec cirrhose ou CHC d’origine alcoolique ou virale, pour obtenir par élimination uniquement les patients NAFLD.Une fois les données de mortalité spécifiques obtenues, nous avons estimé la population susceptible de développer la NAFLD, définie comme l’ensemble des individus avec un surpoids ou un diabète de type 2, en excluant la population de buveurs excessifs. Nous avons estimé la prévalence et l’incidence de cette population, et modélisé son évolution avec l’âge et les années, à partir de données individuelles d’enquêtes représentatives de la population française.Enfin, nous avons quantifié la progression de la NAFLD, et l’impact des facteurs de risque, via deux approches : à partir de la littérature, et à partir de données de biopsies de plus de 1 800 patients obèses candidats à la chirurgie bariatrique, aboutissant à un outil de prédiction de la progression de la NAFLD dans cette population. Nous avons choisi de rétro-calculer les paramètres de progression correspondant aux états asymptomatiques, les plus susceptibles au biais de sélection.Nous avons obtenu un modèle de l’évolution de la NAFLD, prenant en compte la distribution dynamique de la population parmi les classes de poids et le statut de diabète, et aboutissant aux statistiques observées de décès dus à la NAFLD. Le modèle prend en compte le sexe, l’âge, l’année, la classe d’IMC, le statut de diabète et la présence d’un polymorphisme génétique (PNPLA3 rs738409, C→G) comme covariables de progression. Il constitue un outil permettant d’évaluer l’impact d’un éventuel traitement ou d’une politique de santé publique sur la morbi-mortalité
Non-alcoholic fatty liver disease (NAFLD) is a chronic liver disease which is a combination of simple, slowly progressing steatosis, and non-alcoholic steatohepatitis (NASH), an inflammatory form which accelerates its progression. It is estimated that one in four people in the world is affected by NAFLD, and its prevalence is increasing rapidly, in parallel with the prevalence of its main risk factors: overweight, obesity and type 2 diabetes.This pathology is asymptomatic up to the complications, cirrhosis and liver cancer (hepatocellular carcinoma, HCC), which leads to late diagnosis and a negative impact on the associated morbidity and mortality. Furthermore, the reference diagnosis requires a liver biopsy, an invasive examination that cannot be performed routinely. As a result, the progression of the disease is poorly known and its estimation may suffer from a selection bias, towards patients with significant risk factors, who require a biopsy in the first place. A better understanding would allow the implementation of strategies to reduce its burden.The modelling approach is appropriate to take into account all susceptible patients, without having to carry out a large-scale follow-up study using liver biopsies in patients who are mostly asymptomatic. The objectives of this thesis are to describe and quantify the progression of NAFLD, to predict the associated morbidity and mortality, and to identify the population at risk, using Markov models. To do this, it is necessary to fill in some of the progression parameters via a literature review, to characterise the initial states (population likely to develop NAFLD) and the final states (mortality due to NAFLD), in order to deduce the missing progression parameters between the onset of the disease and mortality, by back-calculation.To exhaustively characterise NAFLD mortality, we identified all patients with cirrhosis or HCC from national hospital databases, representing more than 380,000 patients. We then developed an identification algorithm to determine the etiology underlying the hepatic complication, based on all the stays of the identified patients. This algorithm requires the identification of patients with cirrhosis or HCC of alcoholic or viral origin, to obtain by elimination only NAFLD patients. Once the specific mortality data had been obtained, we estimated the population likely to develop NAFLD, defined as all individuals with overweight or type 2 diabetes, excluding the population of excessive drinkers. We estimated the prevalence and incidence of this population, and modelled its evolution with age and years, based on individual data from surveys representative of the French population.Finally, we quantified the progression of NAFLD, and the impact of risk factors, using two approaches: from the literature, and from biopsy data from more than 1,800 obese patients who were candidates for bariatric surgery, resulting in a tool for predicting the progression of NAFLD in this population. We chose to back-calculate the progression parameters corresponding to the asymptomatic states, which are the most susceptible to selection bias.We obtained a model of the progression of NAFLD, taking into account the dynamic distribution of the population among weight classes and diabetes status, and resulting in the observed statistics of NAFLD deaths. The model takes into account gender, age, year, BMI (body mass index) class, diabetes status and the presence of a genetic polymorphism (PNPLA3 rs738409, C→G) as covariates of progression. It is a tool for assessing the impact of a possible treatment or public health policy on morbidity and mortality
50

Fragne, Didier. "Proposition de l'architecture de l'agent gestionnaire du modèle de l'apprenant dans un système tuteur multi-agents en apprentissage de la lecture : contribution au projet AMICAL." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00449160.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de l'environnement multi-agents AMICAL, cette thèse se propose d'étudier les problématiques liées à la conception de l'agent gestionnaire du modèle de l'apprenant (AGMA). Par gestion du modèle de l'apprenant, nous entendons à la fois la construction de ce modèle ainsi que la réponse aux interrogations des autres agents de l'environnement concernant le contenu de celui-ci. Nos problématiques sont à la fois de réfléchir à une formalisation du modèle de l'apprenant dans un domaine particulier qu'est l'apprentissage de la lecture ainsi que de proposer des mécanismes de construction de ce modèle intégrés à AGMA. Pour remplir son rôle de modélisation, AGMA va analyser le compte-rendu de la session de travail réalisée avec l'apprenant puis intégrer les nouvelles hypothèses issues de cette analyse au modèle existant. La contribution apportée par nos travaux est de deux ordres. Premièrement, nous proposons une représentation du modèle de l'apprenant sous forme de système multi-agents cognitifs où chaque agent sera en charge d'une partie du modèle. Deuxièmement, nous proposons de voir l'architecture d'AGMA comme un système multi-agents. À partir de l'analyse des différents rôles d'AGMA, nous avons dégagé une architecture modulaire : un module communication responsable de la communication entre les modules d'AGMA et le reste du système, un module analyse en charge de l'analyse des séquences de travail avec l'apprenant et un module modèle en charge de stocker et de maintenir à jour le modèle en intégrant les nouvelles hypothèses issues de l'analyse. Pour accroître la rapidité d'exécution nous avons représenté chaque module comme un système multi-agents.

До бібліографії