Tesis sobre el tema "Apprentissage de modèles d'actions"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Apprentissage de modèles d'actions.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Apprentissage de modèles d'actions".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Lesner, Boris. "Planification et apprentissage par renforcement avec modèles d'actions compacts". Caen, 2011. http://www.theses.fr/2011CAEN2074.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous étudions les Processus de Décision Markoviens représentés de manière compacte via des langages de définition d'actions basés sur le langage STRIPS Probabiliste. Une première partie de ce travail traite de la résolution de ces processus de manière compacte. Pour cela nous proposons deux algorithmes. Un premier, basé sur la manipulation de formules propositionnelles, permet de résoudre de manière approchée les problèmes dans des fragments propositionnels traitables du type Horn ou 2-CNF. Le second algorithme quant à lui résout efficacement et de manière exacte les problèmes représentés en PDDL probabiliste via l'introduction d'une notion de fonction de valeur d'action étendue. La seconde partie concerne l'apprentissage de ces modèles d'actions. Nous proposons différentes méthodes pour résoudre le problème de l'ambiguïté des observations qui à lieu de lors de l'apprentissage. Une première méthode heuristique basée sur la programmation linéaire donne de bons résultats en pratique, mais sans garanties théoriques. Par la suite nous décrivons une méthode d'apprentissage dans le cadre « Know What It Knows ». Cette approche donne quant à elle des garanties théoriques sur la qualité des modèles d'actions appris ainsi que sur le nombre d'exemples requis pour obtenir un modèle d'actions correct. Ces deux approches sont ensuite incorporées dans un cadre d'apprentissage par renforcement pour une évaluation en pratique de leurs performances
We study Markovian Decision Processes represented with Probabilistic STRIPS action models. A first part of our work is about solving those processes in a compact way. To that end we propose two algorithms. A first one based on propositional formula manipulation allows to obtain approximate solutions in tractable propositional fragments such as Horn and 2-CNF. The second algorithm solves exactly and efficiently problems represented in PPDDL using a new notion of extended value functions. The second part is about learning such action models. We propose different approaches to solve the problem of ambiguous observations occurring while learning. Firstly, a heuristic method based on Linear Programming gives good results in practice yet without theoretical guarantees. We next describe a learning algorithm in the ``Know What It Knows'' framework. This approach gives strong theoretical guarantees on the quality of the learned models as well on the sample complexity. These two approaches are then put into a Reinforcement Learning setting to allow an empirical evaluation of their respective performances
2

Rodrigues, Christophe. "Apprentissage incrémental des modèles d'action relationnels". Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_rodrigues.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans cette thèse, nous nous intéressons à l'apprentissage artificiel pour l'action. Nous nous situons à l'intersection de l'apprentissage par renforcement (AR) et de la programmation logique inductive (PLI). Nous étudions plus précisément l'apprentissage de modèles d'actions. Un modèle d'action décrit les conditions et effets des actions possibles dans un environnement. Il permet d'anticiper les conséquences des actions d'un agent et peut aussi être utilisé par un planificateur. Nous nous intéressons en particulier à une représentation relationnelle des environnements. Nous décrivons alors les états et les actions à l'aide d'objets et de relations entre les différents objets qui les composent. Nous présentons la méthode IRALe apprennant de façon incrémentale des modèles d'action relationnels. Nous commençons par supposer que les états sont entièrement observables et que les conséquences des actions sont déterministes. Nous apportons une preuve de convergence pour cette méthode. Ensuite, nous développons une approche d'exploration active qui essaye de focaliser l'expérience de l'agent sur des actions supposées non couvertes par le modèle. Enfin, nous généralisons l'approche en introduisant une perception de l'environnement bruitée afin de rendre plus réaliste notre cadre d'apprentissage. Pour chaque approche, nous illustrons empiriquement son intérêt sur plusieurs problèmes de planification. Les résultats obtenus montrent que le nombre d'interactions nécessaires avec les environnements est très faible comparé à la taille des espaces d'états considérés. De plus, l'apprentissage actif permet d'améliorer significativement ces résultats
In this thesis, we study machine learning for action. Our work both covers reinforcement learning (RL) and inductive logic programming (ILP). We focus on learning action models. An action model describes the preconditions and effects of possible actions in an environment. It enables anticipating the consequences of the agent’s actions and may also be used by a planner. We specifically work on a relational representation of environments. They allow to describe states and actions by the means of objects and relations between the various objects that compose them. We present the IRALe method, which learns incrementally relational action models. First, we presume that states are fully observable and the consequences of actions are deterministic. We provide a proof of convergence for this method. Then, we develop an active exploration approach which allows focusing the agent’s experience on actions that are supposedly non-covered by the model. Finally, we generalize the approach by introducing a noisy perception of the environment in order to make our learning framework more realistic. We empirically illustrate each approach’s importance on various planification problems. The results obtained show that the number of interactions necessary with the environments is very weak compared to the size of the considered states spaces. Moreover, active learning allows to improve significantly these results
3

Gaidon, Adrien. "Modèles structurés pour la reconnaissance d'actions dans des vidéos réalistes". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00780679.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse décrit de nouveaux modèles pour la reconnaissance de catégories d'actions comme "ouvrir une porte" ou "courir" dans des vidéos réalistes telles que les films. Nous nous intéressons tout particulièrement aux propriétés structurelles des actions : comment les décomposer, quelle en est la structure caractéristique et comment utiliser cette information afin de représenter le contenu d'une vidéo. La difficulté principale à laquelle nos modèles s'attellent réside dans la satisfaction simultanée de deux contraintes antagonistes. D'une part, nous devons précisément modéliser les aspects discriminants d'une action afin de pouvoir clairement identifier les différences entre catégories. D'autre part, nos représentations doivent être robustes en conditions réelles, c'est-à-dire dans des vidéos réalistes avec de nombreuses variations visuelles en termes d'acteurs, d'environnements et de points de vue. Dans cette optique, nous proposons donc trois modèles précis et robustes à la fois, qui capturent les relations entre parties d'actions ainsi que leur contenu. Notre approche se base sur des caractéristiques locales --- notamment les points d'intérêts spatio-temporels et le flot optique --- et a pour objectif d'organiser l'ensemble des descripteurs locaux décrivant une vidéo. Nous proposons aussi des noyaux permettant de comparer efficacement les représentations structurées que nous introduisons. Bien que nos modèles se basent tous sur les principes mentionnés ci-dessus, ils différent de par le type de problème traité et la structure sur laquelle ils reposent. Premièrement, nous proposons de modéliser une action par une séquence de parties temporelles atomiques correspondant à une décomposition sémantique. De plus, nous décrivons comment apprendre un modèle flexible de la structure temporelle dans le but de localiser des actions dans des vidéos de longue durée. Deuxièmement, nous étendons nos idées à l'estimation et à la représentation de la structure spatio-temporelle d'activités plus complexes. Nous décrivons un algorithme d'apprentissage non supervisé permettant de dégager automatiquement une décomposition hiérarchique du contenu dynamique d'une vidéo. Nous utilisons la structure arborescente qui en résulte pour modéliser une action de manière hiérarchique. Troisièmement, au lieu de comparer des modèles structurés, nous explorons une autre alternative : directement comparer des modèles de structure. Pour cela, nous représentons des actions de courte durée comme des séries temporelles en haute dimension et étudions comment la dynamique temporelle d'une action peut être utilisée pour améliorer les performances des modèles non structurés formant l'état de l'art en reconnaissance d'actions. Dans ce but, nous proposons un noyau calculant de manière efficace la similarité entre les dépendances temporelles respectives de deux actions. Nos trois approches et leurs assertions sont à chaque fois validées par des expériences poussées sur des bases de données publiques parmi les plus difficiles en reconnaissance d'actions. Nos résultats sont significativement meilleurs que ceux de l'état de l'art, illustrant ainsi à quel point la structure des actions est importante afin de bâtir des modèles précis et robustes pour la reconnaissance d'actions dans des vidéos réalistes.
4

Grand, Maxence. "Apprentissage de Modèle d'Actions basé sur l'Induction Grammaticale Régulière pour la Planification en Intelligence Artificielle". Electronic Thesis or Diss., Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALM044.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le domaine de l’intelligence artificielle vise à concevoir des agents autonomes capables de percevoir, d’apprendre et d’agir sans aucune intervention humaine pour accomplir des tâches complexes. Pour accomplir des tâches complexes, l’agent autonome doit planifier les meilleures actions possibles et les exécuter. Pour ce faire, l’agent autonome a besoin d’un modèle d’action. Un modèle d’action est une représentation sémantique des actions qu’il peut exécuter. Dans un modèle d’actions, une action est représentée à l’aide (1) d’une précondition: l’ensemble des conditions qui doivent être satisfaites pour que l’action puisse être exécutée et (2) des effets: l’ensemble des propriétés du monde qui vont être modifiées par l’exécution de l’action. La planification STRIPS est une méthode classique pour concevoir ces modèles d’actions. Cependant, les modèles d’actions STRIPS sont généralement trop restrictifs pour être utilisés dans des applications réelles. Il existe d’autres forme de modèles d’actions: les modèles d’actions temporels permettant de représenter des actions pouvant être exécutées en concurrence, les modèles d’actions HTN permettant de représenter les actions sous formes de tâches et de sous tâches, etc. Ces modèles sont moins restrictifs, mais moins les modèles sont restrictifs plus ils sont difficiles à concevoir. Dans cette thèse, nous nous intéressons aux méthodes facilitant l’acquisition de ces modèles d’actions basées sur les techniques d’apprentissage automatique.Dans cette thèse, nous présentons AMLSI (Action Model Learning with State machine Interaction), une approche d’apprentissage de modèles d’actions basée sur l’induction grammaticale régulière. Dans un premier temps nous montrerons que l’approche AMLSI permet d’apprendre des modèles d’actions STRIPS. Nous montrerons les différentes propriétés de l’approche prouvant son efficacité: robustesse, convergence, requiert peu de données d’apprentissage, qualité des modèles appris. Dans un second temps, nous proposerons deux extensions pour l’apprentissage de modèles d’actions temporels et de modèles d’actions HTN
The field of artificial intelligence aims to design and build autonomous agents able to perceive, learn and act without any human intervention to perform complex tasks. To perform complex tasks, the autonomous agent must plan the best possible actions and execute them. To do this, the autonomous agent needs an action model. An action model is a semantic representation of the actions it can execute. In an action model, an action is represented using (1) a precondition: the set of conditions that must be satisfied for the action to be executed and (2) the effects: the set of properties of the world that will be altered by the execution of the action. STRIPS planning is a classical method to design these action models. However, STRIPS action models are generally too restrictive to be used in real-world applications. There are other forms of action models: temporal action models allowing to represent actions that can be executed concurrently, HTN action models allowing to represent actions as tasks and subtasks, etc. These models are less restrictive, but the less restrictive the models are the more difficult they are to design. In this thesis, we are interested in approaches facilitating the acquisition of these action models based on machine learning techniques.In this thesis, we present AMLSI (Action Model Learning with State machine Interaction), an approach for action model learning based on Regular Grammatical Induction. First, we show that the AMLSI approach allows to learn (STRIPS) action models. We will show the different properties of the approach proving its efficiency: robustness, convergence, require few learning data, quality of the learned models. In a second step, we propose two extensions for temporal action model learning and HTN action model learning
5

Davesne, Frédéric. "Etude de l'émergence de facultés d'apprentissage fiables et prédictibles d'actions réflexes, à partir de modèles paramétriques soumis à des contraintes internes". Phd thesis, Université d'Evry-Val d'Essonne, 2002. http://tel.archives-ouvertes.fr/tel-00375023.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'objectif à long terme de notre travail est la mise au points de techniques d'apprentissage fiables et prédictibles d'actions réflexes, dans le cadre de la robotique mobile. Ce document constitue un départ à ce projet.
Dans un premier temps, nous donnons des arguments défendant l'idée que les méthodes d'apprentissage classiques ne peuvent pas,
intrinsèquement, répondre à nos exigences de fiabilité et de prédictibilité. Nous pensons que la clé du problème se situe dans la manière dont la communication entre le système apprenant et son environnement est modélisée. Nous illustrons nos propos grâce à un exemple d'apprentissage par renforcement.

Nous présentons une démarche formalisée dans laquelle la communication est une interaction, au sens physique du terme. Le système y est soumis à deux forces: la réaction du système est due à la fois à l'action de l'environnement et au maintient de contraintes internes. L'apprentissage devient
une propriété émergente d'une suite de réactions du système, dans des cas d'interactions favorables. L'ensemble des évolutions possibles du système est déduit par le calcul, en se basant uniquement (sans autre paramètre) sur la connaissance de l'interaction.

Nous appliquons notre démarche à deux sous-systèmes interconnectés, dont l'objectif global est
l'apprentissage d'actions réflexes.

Nous prouvons que le premier possède comme propriété émergente des facultés d'apprentissage par renforcement et d'apprentissage latent fiables et prédictibles.

Le deuxième, qui est ébauché, transforme un signal en une information perceptive. Il fonctionne par sélection d'hypothèses d'évolution du signal au cours du temps à partir d'une mémoire. Des contraintes internes à la mémoire déterminent les ensembles valides d'informations perceptives.
Nous montrons, dans un cas simple, que ces contraintes mènent à un équivalent du théorème de Shannon sur l'échantillonnage.
6

Dragoni, Laurent. "Tri de potentiels d'action sur des données neurophysiologiques massives : stratégie d’ensemble actif par fenêtre glissante pour l’estimation de modèles convolutionnels en grande dimension". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4016.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Au sein du système nerveux, des cellules appelées neurones sont spécialisées dans la communication de l'information. À travers l'émission et la propagation de courants électriques nommés potentiels d'action, les neurones peuvent transmettre l'information dans le corps. Étant donné le rôle prééminent des neurones, afin de mieux comprendre le fonctionnement du système nerveux, une vaste gamme de méthodes ont été proposées pour l'étude de ces cellules. Dans cette thèse, nous nous intéressons à l'analyse de signaux ayant été enregistrés par des électrodes, et plus spécifiquement, des tétrodes et des multi-electrode arrays (MEA). Ces appareils mesurant en général l'activité d'un ensemble de neurones, les signaux enregistrés forment souvent un mélange de l'activité de plusieurs neurones. Afin de gagner plus d'information sur ce type de données, un pré-traitement crucial appelé tri de potentiels d'action est requis pour séparer l'activité de chaque neurone. Actuellement, la procédure générale de tri de potentiels d'action repose sur une procédure en trois étapes : seuillage, extraction de caractéristiques et partitionnement de données. Malheureusement cette méthodologie requiert un grand nombre d'opérations manuelles. De plus, elle devient encore plus difficile à mettre en oeuvre sur de grands volumes de données, en particulier pour des enregistrements de MEA qui ont tendance à présenter davantage de synchronisations de neurones. Dans cette thèse, nous présentons une stratégie de tri de potentiels d'action permettant l'analyse de grands volumes de données et qui requiert peu d'opérations manuelles. Cette stratégie utilise un modèle convolutionnel dont le but est de représenter les signaux mesurés en convolutions temporelles entre deux facteurs : les activations de neurones et les formes de potentiels d'action. L'estimation de ces deux facteurs est généralement traitée par optimisation alternée. Étant la tâche la plus difficile, nous nous concentrons ici sur l'estimation des activations, en supposant que les formes de potentiels d'action sont connues. Le célèbre estimateur Lasso présente d'intéressantes propriétés mathématiques pour la résolution d'un tel problème. Néanmoins son calcul demeure difficile sur des problèmes de grande taille. Nous proposons un algorithme basé sur la stratégie d'ensemble actif afin de calculer efficacement le Lasso. Cet algorithme exploite la structure particulière du problème, déduite de propriétés biologiques, en utilisant des fenêtres glissantes temporelles, lui permettant d'être appliqué en grande dimension. De plus, nous adaptons des résultats théoriques sur le Lasso pour montrer que, sous des hypothèses raisonnables, notre estimateur retrouve le support du vrai vecteur d'activation avec grande probabilité. Nous proposons également des modèles pour la distribution spatiale et des temps d'activations des neurones qui nous permettent de quantifier la taille du problème et de déduire la complexité temporelle théorique de notre algorithme. En particulier, nous obtenons une complexité quasi-linéaire par rapport à la taille du signal enregistré. Finalement nous présentons des expériences numériques illustrant à la fois les résultats théoriques et les performances de notre approche
In the nervous system, cells called neurons are specialized in the communication of information. Through the generation and propagation of electrical currents named action potentials, neurons are able to transmit information in the body. Given the importance of the neurons, in order to better understand the functioning of the nervous system, a wide range of methods have been proposed for studying those cells. In this thesis, we focus on the analysis of signals which have been recorded by electrodes, and more specifically, tetrodes and multi-electrode arrays (MEA). Since those devices usually record the activity of a set of neurons, the recorded signals are often a mixture of the activity of several neurons. In order to gain more knowledge from this type of data, a crucial pre-processing step called spike sorting is required to separate the activity of each neuron. Nowadays, the general procedure for spike sorting consists in a three steps procedure: thresholding, feature extraction and clustering. Unfortunately this methodology requires a large number of manual operations. Moreover, it becomes even more difficult when treating massive volumes of data, especially MEA recordings which also tend to feature more neuronal synchronizations. In this thesis, we present a spike sorting strategy allowing the analysis of large volumes of data and which requires few manual operations. This strategy makes use of a convolutional model which aims at breaking down the recorded signals as temporal convolutions between two factors: neuron activations and action potential shapes. The estimation of these two factors is usually treated through alternative optimization. Being the most difficult task, we only focus here on the estimation of the activations, assuming that the action potential shapes are known. Estimating the activations is traditionally referred to convolutional sparse coding. The well-known Lasso estimator features interesting mathematical properties for the resolution of such problem. However its computation remains challenging on high dimensional problems. We propose an algorithm based of the working set strategy in order to compute efficiently the Lasso. This algorithm takes advantage of the particular structure of the problem, derived from biological properties, by using temporal sliding windows, allowing it to scale in high dimension. Furthermore, we adapt theoretical results about the Lasso to show that, under reasonable assumptions, our estimator recovers the support of the true activation vector with high probability. We also propose models for both the spatial distribution and activation times of the neurons which allow us to quantify the size of our problem and deduce the theoretical complexity of our algorithm. In particular, we obtain a quasi-linear complexity with respect to the size of the recorded signal. Finally we present numerical results illustrating both the theoretical results and the performances of our approach
7

Baccouche, Moez. "Apprentissage neuronal de caractéristiques spatio-temporelles pour la classification automatique de séquences vidéo". Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00932662.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse s'intéresse à la problématique de la classification automatique des séquences vidéo. L'idée est de se démarquer de la méthodologie dominante qui se base sur l'utilisation de caractéristiques conçues manuellement, et de proposer des modèles qui soient les plus génériques possibles et indépendants du domaine. Ceci est fait en automatisant la phase d'extraction des caractéristiques, qui sont dans notre cas générées par apprentissage à partir d'exemples, sans aucune connaissance a priori. Nous nous appuyons pour ce faire sur des travaux existants sur les modèles neuronaux pour la reconnaissance d'objets dans les images fixes, et nous étudions leur extension au cas de la vidéo. Plus concrètement, nous proposons deux modèles d'apprentissage des caractéristiques spatio-temporelles pour la classification vidéo : (i) Un modèle d'apprentissage supervisé profond, qui peut être vu comme une extension des modèles ConvNets au cas de la vidéo, et (ii) Un modèle d'apprentissage non supervisé, qui se base sur un schéma d'auto-encodage, et sur une représentation parcimonieuse sur-complète des données. Outre les originalités liées à chacune de ces deux approches, une contribution supplémentaire de cette thèse est une étude comparative entre plusieurs modèles de classification de séquences parmi les plus populaires de l'état de l'art. Cette étude a été réalisée en se basant sur des caractéristiques manuelles adaptées à la problématique de la reconnaissance d'actions dans les vidéos de football. Ceci a permis d'identifier le modèle de classification le plus performant (un réseau de neurone récurrent bidirectionnel à longue mémoire à court-terme -BLSTM-), et de justifier son utilisation pour le reste des expérimentations. Enfin, afin de valider la généricité des deux modèles proposés, ceux-ci ont été évalués sur deux problématiques différentes, à savoir la reconnaissance d'actions humaines (sur la base KTH), et la reconnaissance d'expressions faciales (sur la base GEMEP-FERA). L'étude des résultats a permis de valider les approches, et de montrer qu'elles obtiennent des performances parmi les meilleures de l'état de l'art (avec 95,83% de bonne reconnaissance pour la base KTH, et 87,57% pour la base GEMEP-FERA).
8

Oneata, Dan. "Modèles robustes et efficaces pour la reconnaissance d'action et leur localisation". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM019/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Vidéo d'interprétation et de compréhension est l'un des objectifs de recherche à long terme dans la vision par ordinateur. Vidéos réalistes tels que les films présentent une variété de problèmes difficiles d'apprentissage machine, telles que la classification d'action / récupération d'action, de suivi humaines, la classification interaction homme / objet, etc Récemment robustes descripteurs visuels pour la classification vidéo ont été développés, et ont montré qu'il est possible d'apprendre classificateurs visuels réalistes des paramètres difficile. Toutefois, afin de déployer des systèmes de reconnaissance visuelle à grande échelle dans la pratique, il devient important d'aborder l'évolutivité des techniques. L'objectif principal est cette thèse est de développer des méthodes évolutives pour l'analyse de contenu vidéo (par exemple pour le classement ou la classification)
Video interpretation and understanding is one of the long-term research goals in computer vision. Realistic videos such as movies present a variety of challenging machine learning problems, such as action classification/action retrieval, human tracking, human/object interaction classification, etc. Recently robust visual descriptors for video classification have been developed, and have shown that it is possible to learn visual classifiers in realistic difficult settings. However, in order to deploy visual recognition systems on large-scale in practice it becomes important to address the scalability of the techniques. The main goal is this thesis is to develop scalable methods for video content analysis (eg for ranking, or classification)
9

Iriart, Alejandro. "Mesures d’insertion sociale destinées aux détenus québécois et récidive criminelle : une approche par l'apprentissage automatique". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66717.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce mémoire, nous essayons de déterminer l’influence réelle des programmes de réinsertion sociale sur le risque de récidive. Pour ce faire, nous analysons, à l’aide d’une approche d’apprentissage automatique une base de données fournie par le Ministère de la Sécurité publique (MSP) où nous retrouvons le parcours carcéral de 97 140 détenus de 2006 jusqu’en 2018. Notre analyse se concentre uniquement sur les détenus ayant transigé dans la prison de la ville de Québec. Pour faire notre analyse, nous utilisons l’approche des Generalized Random Forests (GRF) développée par Athey et al. (2019) sur les caractéristiques des détenus ainsi que leurs résultats au LS/CMI, un test psychométrique ayant pour but de déterminer leurs besoins criminogènes, afin d’estimer l’effet de traitement individuel de la participation à des programmes. Nous en profitons aussi pour déterminer quelles sont les variables influençant le plus l’effet de traitement en utilisant une fonction de ce même algorithme qui calcule l’importance relative de chacune des variables pour faire la prédiction. Ceci est une approche révolutionnaire, car elle nous permet de faire de l’inférence sur nos résultats. En comparant les participants et les non-participants, nous avons pu démontrer que le fait de participer à un programme diminue le risque de récidiver d’environ 6.9% pour une période d’épreuve de deux ans. Le fait de participer à un programme semble toujours diminuer de manière significative la récidive. Nous avons aussi déterminé qu’au niveau des caractéristiques personnelles, ce sont l’âge, la nature de l’infraction ainsi que le nombre d’années d’études qui sont les principaux prédicteurs de l’effet causal. Pour ce qui est du LS/CMI, seulement certaines sections du questionnaire ont un vrai pouvoir prédictif alors que d’autres, comme celle sur les loisirs, n’en ont pas. À la lumière de nos résultats, nous croyons qu’un instrument plus performant étant capable de prédire la récidive peut être créé en focalisant sur les variables ayant le plus grand pouvoir prédictif. Ces avancées permettront de mieux conseiller les prisonniers sur les programmes qu’ils devraient suivre lors de leur prise en charge par les centres de détention, et ainsi augmenter leurs chances d’être mieux réintégrés en société.
In this master thesis, we tried to determine the real influence of social rehabilitation programs on the risk of recidivism. To do this, we used a machine learning algorithm to analyze a database provided by the Quebec Ministry of Public Security (MSP). In this database, we are able to follow the numerous incarcerations of 97,140 prisoners from 2006 to 2018. Our analysis focuses only on inmates who have served in the prison in Quebec City. The approach we used is named Generalized Random Forests (GRF) and was developed by Athey et al. (2019). Our main analysis focuses not only on the characteristics of the prisoners, but also on the results they obtained when they were subjected to the LS/CMI, an extensive questionnaire aimed at determining the criminogenic needs and the risk level of the inmates . We also determined which variables have the most influence on predicting the treatment effect by using a function of the same algorithm that calculates the relative importance of each of the variables to make a prediction. By comparing participants and non-participants, we were able to demonstrate that participating in a program reduces the risk of recidivism by approximately 6.9% for a two-year trial period. Participating in a program always reduces significantly recidivism no matter the definition of recidivism used. We also determined that in terms of personal characteristics, it is the age, the nature of the offence and the number of years of study that are the main predictors for the individual causal effects. As for the LS/CMI, only a few sections of the questionnaire have real predictive power while others, like the one about leisure, do not. In light of our results, we believe that a more efficient instrument capable of predicting recidivism can be created by focusing on the newly identified variables with the greatest predictive power. A better instrument will make it possible to provide better counselling to prisoners on the programs they should follow, and thus increase their chances of being fully rehabilitated.
10

Arora, Ankuj. "Apprentissage du modèle d'action pour une interaction socio-communicative des hommes-robots". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM081/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Conduite dans le but de rendre les robots comme socio-communicatifs, les chercheurs ont cherché à mettre au point des robots dotés de compétences sociales et de «bon sens» pour les rendre acceptables. Cette intelligence sociale ou «sens commun» du robot est ce qui finit par déterminer son acceptabilité sociale à long terme.Cependant, ce n'est pas commun. Les robots peuvent donc seulement apprendre à être acceptables avec l'expérience. Cependant, en enseignant à un humanoïde, les subtilités d'une interaction sociale ne sont pas évidentes. Même un échange de dialogue standard intègre le panel le plus large possible de signes qui interviennent dans la communication et sont difficiles à codifier (synchronisation entre l'expression du corps, le visage, le ton de la voix, etc.). Dans un tel scénario, l'apprentissage du modèle comportemental du robot est une approche prometteuse. Cet apprentissage peut être réalisé avec l'aide de techniques d'IA. Cette étude tente de résoudre le problème de l'apprentissage des modèles comportementaux du robot dans le paradigme automatisé de planification et d'ordonnancement (APS) de l'IA. Dans le domaine de la planification automatisée et de l'ordonnancement (APS), les agents intelligents nécessitent un modèle d'action (plans d'actions dont les exécutions entrelacées effectuent des transitions de l'état système) afin de planifier et résoudre des problèmes réels. Au cours de cette thèse, nous présentons deux nouveaux systèmes d'apprentissage qui facilitent l'apprentissage des modèles d'action et élargissent la portée de ces nouveaux systèmes pour apprendre les modèles de comportement du robot. Ces techniques peuvent être classées dans les catégories non optimale et optimale. Les techniques non optimales sont plus classiques dans le domaine, ont été traitées depuis des années et sont de nature symbolique. Cependant, ils ont leur part de quirks, ce qui entraîne un taux d'apprentissage moins élevé que souhaité. Les techniques optimales sont basées sur les progrès récents dans l'apprentissage en profondeur, en particulier la famille à long terme (LSTM) de réseaux récurrents récurrents. Ces techniques sont de plus en plus séduisantes par la vertu et produisent également des taux d'apprentissage plus élevés. Cette étude met en vedette ces deux techniques susmentionnées qui sont testées sur des repères d'IA pour évaluer leurs prouesses. Ils sont ensuite appliqués aux traces HRI pour estimer la qualité du modèle de comportement du robot savant. Ceci est dans l'intérêt d'un objectif à long terme d'introduire l'autonomie comportementale dans les robots, afin qu'ils puissent communiquer de manière autonome avec les humains sans avoir besoin d'une intervention de «magicien»
Driven with the objective of rendering robots as socio-communicative, there has been a heightened interest towards researching techniques to endow robots with social skills and ``commonsense'' to render them acceptable. This social intelligence or ``commonsense'' of the robot is what eventually determines its social acceptability in the long run.Commonsense, however, is not that common. Robots can, thus, only learn to be acceptable with experience. However, teaching a humanoid the subtleties of a social interaction is not evident. Even a standard dialogue exchange integrates the widest possible panel of signs which intervene in the communication and are difficult to codify (synchronization between the expression of the body, the face, the tone of the voice, etc.). In such a scenario, learning the behavioral model of the robot is a promising approach. This learning can be performed with the help of AI techniques. This study tries to solve the problem of learning robot behavioral models in the Automated Planning and Scheduling (APS) paradigm of AI. In the domain of Automated Planning and Scheduling (APS), intelligent agents by virtue require an action model (blueprints of actions whose interleaved executions effectuates transitions of the system state) in order to plan and solve real world problems. During the course of this thesis, we introduce two new learning systems which facilitate the learning of action models, and extend the scope of these new systems to learn robot behavioral models. These techniques can be classified into the categories of non-optimal and optimal. Non-optimal techniques are more classical in the domain, have been worked upon for years, and are symbolic in nature. However, they have their share of quirks, resulting in a less-than-desired learning rate. The optimal techniques are pivoted on the recent advances in deep learning, in particular the Long Short Term Memory (LSTM) family of recurrent neural networks. These techniques are more cutting edge by virtue, and produce higher learning rates as well. This study brings into the limelight these two aforementioned techniques which are tested on AI benchmarks to evaluate their prowess. They are then applied to HRI traces to estimate the quality of the learnt robot behavioral model. This is in the interest of a long term objective to introduce behavioral autonomy in robots, such that they can communicate autonomously with humans without the need of ``wizard'' intervention
11

Sandel, Olivier. "Modèle d'Interface Intelligente pour Terminaux de Communication". Phd thesis, Université Louis Pasteur - Strasbourg I, 2002. http://tel.archives-ouvertes.fr/tel-00453013.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La présente Thèse en Intelligence Artificielle est basée sur un tout premier concept nommé “Assistant Conversationnel”, lequel est abordé par le fait qu'un utilisateur quelconque souhaitant joindre un interlocuteur doit pouvoir toujours voir sa requête se réaliser, quelque soit le moyen choisi par le terminal et sans que l'utilisateur ait à choisir lui-même le moyen adéquat. Le problème principal à résoudre se définit en conséquence par la modélisation et la conception d'une interface intelligente, personnalisée et praticable par tous les publics sur les terminaux de communication spécialisables accédant à Internet. Nous avons alors créé et développé de nouveaux procédés “intelligents”, chargés entre-autres de rendre les opérations courantes moins fastidieuses sur des applications de messagerie électronique. Pour cela, nous avons établi un état de l'art des divers terminaux de communication disponibles sur le marché mondial, ainsi qu'une classification taxinomique poussée et une nouvelle hiérarchisation efficace des interfaces intelligentes. Puis, nous avons construit un “Modèle Auto-Adaptable d'Utilisateur” sur un apprentissage comportemental, incrémental et évolutif, finalement implémenté en quatre phases : 1. Analyse, représentation et classification des différentes actions réalisées par l'utilisateur. 2. Proposition régulière à l'utilisateur d'effectuer de manière auto-adaptable les actions apprises. 3. Exécution auto-adaptable de ces différentes séquences d'actions répétitives. 4. Simplification auto-adaptable d'éventuelles “erreurs” ou incohérences de manipulation. Ainsi, cette contribution innovante à l'interfaçage homme-machine avancé a permis d'aboutir à la validation complète d'un logiciel intelligent de communication, tout-à-fait autonome et portable, capable d'assister chaque utilisateur, néophyte comme très expérimenté, dans ses divers travaux quotidiens, et ce de manière conviviale et toujours respectueuse de ses préférences.
12

Klaser, Alexander. "Apprentissage pour la reconnaissance d'actions humaines en vidéo". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM039.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse s'intéresse à la reconnaissance des actions humaines dans des données vidéo réalistes, tels que les films. À cette fin, nous développons des algorithmes d'extraction de caractéristiques visuelles pour la classification et la localisation d'actions. Dans une première partie, nous étudions des approches basées sur les sacs-de-mots pour la classification d'action. Dans le cas de vidéo réalistes, certains travaux récents qui utilisent le modèle sac-de-mots pour la représentation d'actions ont montré des résultats prometteurs. Par conséquent, nous effectuons une comparaison approfondie des méthodes existantes pour la détection et la description des caractéristiques locales. Ensuite, nous proposons deux nouvelles approches pour la descriptions des caractéristiques locales en vidéo. La première méthode étend le concept d'histogrammes sur les orientations de gradient dans le domaine spatio-temporel. La seconde méthode est basée sur des trajectoires de points d'intérêt détectés spatialement. Les deux descripteurs sont évalués avec une représentation par sac-de-mots et montrent une amélioration par rapport à l'état de l'art pour la classification d'actions. Dans une seconde partie, nous examinons comment la détection de personnes peut contribuer à la reconnaissance d'actions. Tout d'abord, nous développons une approche qui combine la détection de personnes avec une représentation sac-de-mots. La performance est évaluée pour la classification d'actions à plusieurs niveaux d'échelle spatiale. Ensuite, nous explorons la localisation spatio-temporelle des actions humaines dans les films. Nous étendons une approche de suivi de personnes pour des vidéos réalistes. En outre, nous développons une représentation d'actions qui est adaptée aux détections de personnes. Nos expériences suggèrent que la détection de personnes améliore significativement la localisation d'actions. De plus, notre système montre une grande amélioration par rapport à l'état de l'art actuel
This dissertation targets the recognition of human actions in realistic video data, such as movies. To this end, we develop state-of-the-art feature extraction algorithms that robustly encode video information for both, action classification and action localization. In a first part, we study bag-of-features approaches for action classification. Recent approaches that use bag-of-features as representation have shown excellent results in the case of realistic video data. We, therefore, conduct an extensive comparison of existing methods for local feature detection and description. We, then, propose two new approaches to describe local features in videos. The first method extends the concept of histograms over gradient orientations to the spatio-temporal domain. The second method describes trajectories of local interest points detected spatially. Both descriptors are evaluated in a bag-of-features setup and show an improvement over the state-of-the-art for action classification. In a second part, we investigate how human detection can help action recognition. Firstly, we develop an approach that combines human detection with a bag-of-features model. The performance is evaluated for action classification with varying resolutions of spatial layout information. Next, we explore the spatio-temporal localization of human actions in Hollywood movies. We extend a human tracking approach to work robustly on realistic video data. Furthermore we develop an action representation that is adapted to human tracks. Our experiments suggest that action localization benefits significantly from human detection. In addition, our system shows a large improvement over current state-of-the-art approaches
13

Klaser, Alexander. "Apprentissage pour la reconnaissance d'actions humaines en vidéo". Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00514814.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen

Cette thèse s'intéresse à la reconnaissance des actions humaines dans des données vidéo réalistes, tels que les films. À cette fin, nous développons des algorithmes d'extraction de caractéristiques visuelles pour la classification et la localisation d'actions.

Dans une première partie, nous étudions des approches basées sur les sacs-de-mots pour la classification d'action. Dans le cas de vidéo réalistes, certains travaux récents qui utilisent le modèle sac-de-mots pour la représentation d'actions ont montré des résultats prometteurs. Par conséquent, nous effectuons une comparaison approfondie des méthodes existantes pour la détection et la description des caractéristiques locales. Ensuite, nous proposons deux nouvelles approches pour la descriptions des caractéristiques locales en vidéo. La première méthode étend le concept d'histogrammes sur les orientations de gradient dans le domaine spatio-temporel. La seconde méthode est basée sur des trajectoires de points d'intérêt détectés spatialement. Les deux descripteurs sont évalués avec une représentation par sac-de-mots et montrent une amélioration par rapport à l'état de l'art pour la classification d'actions.

Dans une seconde partie, nous examinons comment la détection de personnes peut contribuer à la reconnaissance d'actions. Tout d'abord, nous développons une approche qui combine la détection de personnes avec une représentation sac-de-mots. La performance est évaluée pour la classification d'actions à plusieurs niveaux d'échelle spatiale. Ensuite, nous explorons la localisation spatio-temporelle des actions humaines dans les films. Nous étendons une approche de suivi de personnes pour des vidéos réalistes. En outre, nous développons une représentation d'actions qui est adaptée aux détections de personnes. Nos expériences suggèrent que la détection de personnes améliore significativement la localisation d'actions. De plus, notre système montre une grande amélioration par rapport à l'état de l'art actuel.

14

Deramgozin, Mohammadmahdi. "Développement de modèles de reconnaissance des expressions faciales à base d’apprentissage profond pour les applications embarquées". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0286.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le domaine de la Reconnaissance des Émotions Faciales (FER) est est d'une importance capitale pour faire progresser les interactions homme-machine et trouve sa place dans de nombreuses applications comme par exemple le domaine de la santé pour traiter la dépression et l'anxiété. En utilisant des Réseaux Neuronaux Convolutifs (CNN), cette thèse présente une série de modèles visant à optimiser la détection et l'interprétation des émotions. Le modèle initial présenté dans cette thèse est de faible complexité et économe en ressources lui permettant de rivaliser favorablement avec les solutions de l'état de l'art sur un nombre limité de jeux de données, ce qui en fait une bonne base pour les systèmes à ressources limitées. Pour identifier et capturer toute la complexité et l'ambiguïté des émotions humaines, ce modèle initial est amélioré en intégrant les Unités d'Action faciales (AU). Cette approche affine non seulement la détection des émotions mais fournit également une interprétabilité des décisions fournies par le modèle en identifiant des AU spécifiques liées à chaque émotion. Une amélioration significative est atteinte en introduisant des mécanismes d'attention neuronale—à la fois spatiaux et par canal— au modèle initial. Ainsi, le modèle basé sur ces mécanismes d'attention se focalise uniquement sur les caractéristiques faciales les plus saillantes. Cela permet au modèle CNN de s'adapter bien aux scénarios du monde réel, tels que des expressions faciales partiellement obscurcies ou subtiles. La thèse aboutit à un modèle CNN optimisé et efficace en termes de calcul et d'empreinte mémoire, le rendant parfaitement adapté pour les environnements à ressources limitées comme les systèmes embarqués. Tout en fournissant une solution robuste pour la FER, des perspectives et voies pour des travaux futurs, tels que des applications en temps réel et des techniques avancées pour l'interprétabilité du modèle, sont également identifiées
The field of Facial Emotion Recognition (FER) is pivotal in advancing human-machine interactions and finds essential applications in healthcare for conditions like depression and anxiety. Leveraging Convolutional Neural Networks (CNNs), this thesis presents a progression of models aimed at optimizing emotion detection and interpretation. The initial model is resource-frugal but competes favorably with state-of-the-art solutions, making it a strong candidate for embedded systems constrained in computational and memory resources. To capture the complexity and ambiguity of human emotions, the research work presented in this thesis enhances this CNN-based foundational model by incorporating facial Action Units (AUs). This approach not only refines emotion detection but also provides interpretability by identifying specific AUs tied to each emotion. Further sophistication is achieved by introducing neural attention mechanisms—both spatial and channel-based—improving the model's focus on salient facial features. This makes the CNN-based model adapted well to real-world scenarios, such as partially obscured or subtle facial expressions. Based on the previous results, in this thesis we propose finally an optimized, yet computationally efficient, CNN model that is ideal for resource-limited environments like embedded systems. While it provides a robust solution for FER, this research also identifies perspectives for future work, such as real-time applications and advanced techniques for model interpretability
15

Baillie, Jean-Christophe. "Apprentissage et reconnaissance qualitative d'actions dans des séquences vidéo". Paris 6, 2001. http://www.theses.fr/2001PA066533.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Phan, Thi Hai Hong. "Reconnaissance d'actions humaines dans des vidéos avec l'apprentissage automatique". Thesis, Cergy-Pontoise, 2019. http://www.theses.fr/2019CERG1038.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ces dernières années, la reconnaissance d’action humaine (HAR) a attiré l’attention de la recherche grâce à ses diverses applications telles que les systèmes de surveillance intelligents, l’indexation vidéo, l’analyse des activités humaines, les interactions homme-machine, et ainsi de suite. Les problèmes typiques que les chercheurs envisagent sont la complexité des mouvements humains, les variations spatio-temporelles, l'encombrement, l'occlusion et le changement des conditions d'éclairage. Cette thèse porte sur la reconnaissance automatique des actions humaines en cours dans une vidéo. Nous abordons ce problème de recherche en utilisant à la fois des approches d'apprentissage traditionnel peu profond et d'apprentissage profond.Premièrement, nous avons commencé les travaux de recherche avec des méthodes d’apprentissage traditionnelles peu profondes, fondées sur des caractéristiques créées manuellement, en introduisant un nouveau fonctionnalité appelée descripteur MOMP (Motion of Oriented Magnitudes Patterns). Nous avons ensuite intégré ce descripteur discriminant aux techniques de représentation simples mais puissantes telles que le sac de mots visuels, le vecteur de descripteurs agrégés localement (VLAD) et le vecteur de Fisher pour mieux représenter les actions. En suite l'PCA (Principal Component Analysis) et la sélection des caractéristiques (la dépendance statistique, l'information mutuelle) sont appliquées pour rechercher le meilleur sous-ensemble des caractéristiques afin d'améliorer les performances et de réduire les coûts de calcul. La méthode proposée a permis d'obtenir les résultats d'état de l'art sur plusieurs bases de données communes.Les approches d'apprentissage profond récentes nécessitent des calculs intensifs et une utilisation importante de la mémoire. Ils sont donc difficiles à utiliser et à déployer sur des systèmes aux ressources limitées. Dans la deuxième partie de cette thèse, nous présentons un nouvel algorithme efficace pour compresser les modèles de réseau de neurones convolutionnels afin de réduire à la fois le coût de calcul et l’empreinte mémoire au moment de l’exécution. Nous mesurons la redondance des paramètres en fonction de leurs relations à l'aide des critères basés sur la théorie de l'information, puis nous éliminons les moins importants. La méthode proposée réduit considérablement la taille des modèles de différents réseaux tels qu'AlexNet, ResNet jusqu'à 70% sans perte de performance pour la tâche de classification des images à grande échelle.L'approche traditionnelle avec le descripteur proposé a permis d'obtenir d'excellentes performances pour la reconnaissance de l'action humaine mais seulement sur de petits bases de données. Afin d'améliorer les performances de la reconnaissance sur les bases de données de grande échelle, dans la dernière partie de cette thèse, nous exploitons des techniques d'apprentissage profond pour classifier les actions. Nous introduisons les concepts de l'image MOMP en tant que couche d'entrée de CNN et incorporons l'image MOMP dans des réseaux de neurones profonds. Nous appliquons ensuite notre algorithme de compression réseau pour accélérer et améliorer les performances du système. La méthode proposée réduit la taille du modèle, diminue le sur-apprentissage et augmente ainsi la performance globale de CNN sur les bases de données d'action à grande échelle.Tout au long de la thèse, nous avons montré que nos algorithmes obtenaient de bonnes performances sur bases de données d'action complexes (Weizmann, KTH, UCF Sports, UCF-101 et HMDB51) avec des ressources limitées
In recent years, human action recognition (HAR) has attracted the research attention thanks to its various applications such as intelligent surveillance systems, video indexing, human activities analysis, human-computer interactions and so on. The typical issues that the researchers are envisaging can be listed as the complexity of human motions, the spatial and temporal variations, cluttering, occlusion and change of lighting condition. This thesis focuses on automatic recognizing of the ongoing human actions in a given video. We address this research problem by using both shallow learning and deep learning approaches.First, we began the research work with traditional shallow learning approaches based on hand-scrafted features by introducing a novel feature named Motion of Oriented Magnitudes Patterns (MOMP) descriptor. We then incorporated this discriminative descriptor into simple yet powerful representation techniques such as Bag of Visual Words, Vector of locally aggregated descriptors (VLAD) and Fisher Vector to better represent actions. Also, PCA (Principal Component Analysis) and feature selection (statistical dependency, mutual information) are applied to find out the best subset of features in order to improve the performance and decrease the computational expense. The proposed method obtained the state-of-the-art results on several common benchmarks.Recent deep learning approaches require an intensive computations and large memory usage. They are therefore difficult to be used and deployed on the systems with limited resources. In the second part of this thesis, we present a novel efficient algorithm to compress Convolutional Neural Network models in order to decrease both the computational cost and the run-time memory footprint. We measure the redundancy of parameters based on their relationship using the information theory based criteria, and we then prune the less important ones. The proposed method significantly reduces the model sizes of different networks such as AlexNet, ResNet up to 70% without performance loss on the large-scale image classification task.Traditional approach with the proposed descriptor achieved the great performance for human action recognition but only on small datasets. In order to improve the performance on the large-scale datasets, in the last part of this thesis, we therefore exploit deep learning techniques to classify actions. We introduce the concepts of MOMP Image as an input layer of CNNs as well as incorporate MOMP image into deep neural networks. We then apply our network compression algorithm to accelerate and improve the performance of system. The proposed method reduces the model size, decreases the over-fitting, and thus increases the overall performance of CNN on the large-scale action datasets.Throughout the thesis, we have showed that our algorithms obtain good performance in comparison to the state-of-the-art on challenging action datasets (Weizmann, KTH, UCF Sports, UCF-101 and HMDB51) with low resource required
17

Dekdouk, Abdelkader. "Modèles algébriques pour le parallélisme vrai et le raffinement d'actions". Nancy 1, 1997. http://www.theses.fr/1997NAN10188.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le cadre général de mon travail de thèse est la théorie des processus. Pour être un peu plus précis, il s'inscrit dans le cadre de l'algèbre de processus. Son objectif, est de définir dans un premier temps des modèles algébriques de parallélisme vrai. Ensuite, étendre ces modèles avec le concept de raffinement d'actions. Initialement nous définissons deux sémantiques opérationnelles de parallélisme vrai pour un langage à la ACP. La première exploite la structure causale du processus et la deuxième repose sur l'hypothèse de la durabilité abstraite des occurrences d'action. Ensuite, nous établissons leurs modèles algébriques correspondants tout en respectant la propriété de correction et de complétude du dernier par rapport au premier. Les modèles définis représentent en fait des algèbres de processus. Par conséquent, cela nous fournit des formalismes de description explicite du parallélisme vrai, en plus de l'outil de vérification algébrique. La deuxième étape de ce travail consiste en la définition sémantique de l'opérateur de raffinement d'actions au sein des deux modèles définis, causal et ST. L'opérateur de raffinement d'actions permet de relier des spécifications à des niveaux différents d'abstraction, en implantant une action abstraite par une activité concrète. Il introduit par conséquent la notion de conception verticale qui est très importante pour la conception des systèmes d'actions. Finalement nous étendons les deux modèles algébriques incluant le raffinement d'actions avec le mécanisme d'abstraction des actions inobservables, en suivant les principes fondamentaux établis par l'équivalence observationnelle de Milner et l'équivalence de branchement de Van Glabbeek et Weijland, sachant que ce mécanisme d'abstraction représente un outil crucial pour la vérification des systèmes réactifs
This work fits into the process algebra framework. Its goal is twofold. Firstly, to define algebraic models for true-concurrency and secondly to extend these models with action refinement concept. We begin by defining two operational models of true-concurrency for an extension of an ACPlike language. True-concurrency of the first model rests on the causality principle and assumes instantaneity of action occurrences. While the second one is based on the ST idea assuming that action occurrences are durable. Then we establish for each operational model its corresponding algebraic model for which it is proved correct and complete. These models define pro cess algebras that provide formalisms to express explicitly a true-concurrent behaviour, in addition to their ability of algebraic verification. The second step of this work is the semantic definition of action refinement operator within both the defined causal and ST models. The action refinement operator permits to relate specifications at different levels of abstraction by implementing an abstract action with a concrete activity. Hence it introduces the notion of vertical modularity which is very relevant for the design of action systems. We finalise this work by enriching both the true-concurrent models including action refinement with the mechanism of abstraction w. R. T unobservable actions, following the abstraction principles stated by the observational equivalence of Milner and the branching equivalence of Van Glabbeek and Weijland. As far as we know this mechanism constitutes a crucial tool for the verification of reactive systems
18

Bubeck, Sébastien. "JEUX DE BANDITS ET FONDATIONS DU CLUSTERING". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00845565.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail de thèse s'inscrit dans le domaine du machine learning et concerne plus particulièrement les sous-catégories de l'optimisation stochastique, du online learning et du clustering. Ces sous-domaines existent depuis plusieurs décennies mais ils ont tous reçu un éclairage différent au cours de ces dernières années. Notamment, les jeux de bandits offrent aujourd'hui un cadre commun pour l'optimisation stochastique et l'online learning. Ce point de vue conduit a de nombreuses extensions du jeu de base. C'est sur l'étude mathématique de ces jeux que se concentre la première partie de cette thèse. La seconde partie est quant à elle dédiée au clustering et plus particulièrement à deux notions importantes: la consistance asymptotique des algorithmes et la stabilité comme méthode de sélection de modèles.
19

Thevenin, Dominique. "Anomalies des marchés d'actions : le cas des bulles spéculatives". Grenoble 2, 1998. http://www.theses.fr/1998GRE21046.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'objet de cette recherche est de tester l'existence des bulles rationnelles sur les marches financiers, et elaborer une procedure de test de bulles. Les quatre premiers chapitres examinent la theorie des bulles, fondee sur la notion de valeur fondamentale, et retiennent seulement les bulles rationnelles pour le cadre de la recherche. Les chapitres cinq a sept analysent les techniques econometriques de tests possibles, pour definir une demarche de detection : tests de volatilite, de cointegration, ou regression. Les tests anterieurs sont etendus a une periode plus longue sur l'indice americain, et leur resultats ne sont pas remis en question : les bulles ne sont pas rejetees du marche us. Le chapitre 8 propose d'incorporer la fluctuation des taux d'actualisation dans les tests : cet element ne semble pas expliquer les resultats sur les bulles. Dans le chapitre 9, la procedure proposee est appliquee a l'indice du marche francais sur la meme periode, 1871 - 1997. Les resultats sont differents : ils ne detectent pas de bulle en france
The object of this research paper is to test if speculative bubbles exist on stock markets, and to supply a procedure for testing bubbles. Chapters 1 to 4 retraces the evolution of financial theories, and the attempts to broaden the concept of rational bubbles using assumptions of fundamental value. In chapter 5 to 7, the most commonly used econometric tests are analysed : volatility tests, cointegration tests, and regressions. Tests are extended to a larger sample in time available on the american stock indice, and the conclusions are not modified: it is impossible to reject bubbles on the american stock market. In chapter 8, we introduce floating discount rates in the tests, but this element does not change the results. In chapter 9, the proposed procedure is applied to the french stock market indice. Their results are different for the same period 1871-1997 : it seems that bubbles do not affect frenc^stocks
20

Bondu, Alexis. "Apprentissage actif par modèles locaux". Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00450124.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les méthodes d'apprentissage statistiques exploitent des exemples, pour enseigner un comportement à un modèle prédictif. La classification supervisée requiert des exemples étiquetés. En pratique, l'étiquetage des exemples peut se révélé coûteux. Dans certain cas, l'étiquetage implique un expert humain, un instrument de mesure, un temps de calcul élevé...etc. Les méthodes d'apprentissage actif réduisent le coût de préparation des données d'apprentissage. Ces méthodes cherchent à étiqueter uniquement les exemples les plus utiles à l'apprentissage d'un modèle. Les travaux présentés dans ce manuscrit sont réalisés dans le cadre de l'échantillonnage sélectif, qui n'autorise pas les stratégies actives à générer de nouveaux exemples d'apprentissage. Les stratégies actives de la littérature utilisent généralement des modèles globaux à l'espace des variables d'entrées. Nous proposons dans ce manuscrit une stratégie originale qui effectue un partitionnement dichotomique récursif de l'espace d'entrée. Cette stratégie met en compétition les modèles locaux à chacune des zones, pour choisir les exemples à étiqueter. Notre stratégie décide “quand” couper une zone et “où” la couper. Une amélioration possible consiste `a exploiter une méthode de discrétisation pour prendre ces deux décisions. L'extension de l'approche de discrétisation MODL au cas de l'apprentissage semi-supervisé constitue un des apports majeurs de cette thèse. Nous proposons une deuxième amélioration qui consiste à sélectionner, localement à la meilleure zone, l'exemple le plus utile à l'apprentissage du modèle local. Nous proposons une stratégie active originale, qui maximise la probabilité des modèles de discrétisation connaissant les données et l'exemple candidat à l'étiquetage.
21

Grar, Adel. "Incidence de la division d'actions et de l'attribution d'actions gratuites sur la valeur : une étude empirique sur le marché français entre 1977 et 1990". Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090048.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les questions évoquées dans cette thèse s'instaurent dans le cadre des conséquences de certaines décisions financières prises par les entreprises sur les caractéristiques boursières de leurs titres. Il s'agit essentiellement des décisions qui génèrent un accroissement du nombre d'actions composant le capital, sans qu'il y ait un apport de fonds. Les décisions financières étudiées dans cette thèse sont celles de la division d'actions et de l'attribution d'actions gratuites. En France, ces deux opérations ont une incidence positive sur les prix, mais elles diffèrent dans leur impact sur le risque et la liquidité des titres en question, l'objectif d'améliorer la liquidité d'un titre n'est pas atteint et celui de réduire le niveau du prix de l'action rend celle-ci plus risquée. Les résultats montrent que les divisions d'actions et les attributions gratuites sont deux opérations différentes poursuivant des objectifs différents également
This thesis deals with the impact of financial decisions on stock's characteristics. The decisions studied here are stock splits and stock dividends which generate an increase in the number of shares outstanding without increasing the firm resources. In France, stock splits appear to be increasingly common. Empirically, we find that the market reacts favorably to distributions of stocks. However, stock splits result in higher volatility and lower liquidity. We investigate why firms split their stocks or distribute stock dividends. The findings suggest that stock splits are mainly aimed at restoring stock prices to a "normal range". Stock dividends are altogether different from stock splits, in that they seem to be related to a firm's cash dividend policy
22

Bensimhon, Larry. "Excès de confiance et mimétisme informationnel sur les marchés d'actions". Paris 1, 2006. http://www.theses.fr/2006PA010081.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Traditionnellement, la théorie financière a été principalement préoccupée, à travers les travaux menés sur l'efficience des marchés, par la question de la disponibilité de l'information. Le courant novateur de la finance comportementale, au contraire, redécouvre l'importanc du traitement par les agents de l'information dont ils disposent. En effet, le problème grandissant auquel font face les investisseurs sur le marchés est de donner une cohérence à l'ensemble des informations qu'ils reçoivent, de leur donner un poids relatif sur lequel ils vont fonder leurs décisions. L'objectif de ce travail est de déterminer les conséquences, sur les marchés, du succès ou de l'insuccès des investisseurs à définir un tel poids. La première partie de la thèse met en évidence, à travers l'étude des phénomènes de bulles et de krachs boursiers, l'existence de deux types d'information: une information privée et une information publique. Nous montrons, dans ce cadre, l'intérêt d'étudier plus précisément le rôle joué par la relation particulière liant les notions de mimétisme informationnel et d'excès de confiance. Une enquête menée auprès de professionnels des marchés permet de déterminer des indices « psychométriques» nous renseignant sur ces deux notions. La deuxième partie de la thèse présente une modélisation de cette relation par le biais de la théorie des cascades informationnelles de Bikhchandani, Hirshleifer et Welch (1992), que nous testons via la méthodologie expérimentale. Nos résultats montrent que la question du traitement de l'information, organisée en catégorie, est susceptible d'avoir un impact sur les prix de marchés et notamment sur les écarts prix/valeur.
23

Yang, Gen. "Modèles prudents en apprentissage statistique supervisé". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2263/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques
In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs
24

Kreit, Zakwan. "Contribution à l'étude des méthodes quantitatives d'aide à la décision appliquées aux indices du marché d'actions". Bordeaux 4, 2007. https://tel.archives-ouvertes.fr/tel-00413979.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse se compose de deux parties : la première expose et compare les différentes méthodes quantitatives d’aide à la décision utilisées dans diverses situations. La deuxième étudie et analyse l'indice du marché boursier d’Egypte - marché considéré comme inefficient parmi les marchés boursiers internationaux. En conséquence, nous précisons qu’il est très difficile d'utiliser les méthodes traditionnelles pour prévoir la tendance de l'indice de ce marché boursier (Bourse du Caire et d’Alexandrie : CASE). Pour cela nous avons appliqué la méthode ARIMA de Box-Jenkins (moyenne mobile intégrée auto-régressive) et la méthode ANN (Réseaux de Neurones Artificiels) à un échantillon d’indices du marché boursier (CASE) collecté entre 1992 et 2005, soit 3311 observations d’une série chronologique. Les résultats obtenus ont montré que la méthode traditionnelle de prédiction ARIMA ne permet pas de prévoir l'indice du marché boursier de CASE, alors que la méthode ANN est capable de suivre la tendance réelle de l'indice. Ces conclusions ont été confirmées par les deux critères de calcul du pourcentage d'erreur sur la moyenne absolue (MAPE) et de l'erreur sur la moyenne quadratique (MSE). Donc, les réseaux neuronaux pour la prédiction hebdomadaire des marchés biduel pourrait tirer profit de l'utilisation de cette méthode de prédiction pour ses propres décisions financières
This thesis is divided into two parts : first, it concerns the study of different quantitative methods used for decision making support in all situations. Second, study and analysis of the stock market index in Egypt. Indeed, The Egyptian stock market is considered to be inefficient with respect to the international stock market. According to this, we expect that it is very difficult to use the traditional forecasting methods to predict the trend of the stock market index. In order to predict the Cairo & Alexandria Stock Exchanges (CASE), the Box-Jenkins Auto Regressive Integrated Moving Average (ARIMA) and Artificial Neural Network (ANN) methods were applied to predict the stock market index of (CASE) in Egypt. For this purpose, we have used the stock market index samples for the CASE collected from 1992-2005 (3311 daily time series observation). The traditional forecasting method ARIMA was found to be not able to predict the CASE stock market index. However, the ANN prediction method was found to be able to follow the real trend of the index. This was confirmed by the Mean Absolute Percentage Error (MAPE) and Mean Square Error (MSE). Hence, neural networks for weekly prediction of financial stock markets are efficient. Consequently, the individual investor could make the most of the use of this forecasting method for his decision especially in the stock market
25

Le, Cun Yann. "Modèles connexionnistes de l'apprentissage". Paris 6, 1987. http://www.theses.fr/1987PA066180.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Etude des modèles d'apprentissage simples et application aux mémoires associatives. Méthodes d'apprentissage pour réseaux à cellules cachées. Algorithme de retro propagation et ses variantes. Applications diverses (associative, reconnaissance de caractères, diagnostic médical) et logiciel de simulation
26

Picardat, Jean-François. "Controle d'execution, comprehension et apprentissage de plans d'actions : developpement de la methode de la table triangulaire". Toulouse 3, 1987. http://www.theses.fr/1987TOU30122.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Synthese de l'etat de l'art en planification et en controle d'execution. Construction de la table triangulaire et etude de l'algorithme utilise en controle d'execution. Il est ensuite propose d'utiliser la table pour produire des explications sur un plan d'actions. Ce qui est ensuite generalise a une sequence de regles. Developpement d'un cadre formel pour l'emploi de cette table. Implantation dans un logiciel concu comme un environnement de programmation regroupant les primitives de traitemnt et de manipulation de tables
27

Picardat, Jean-François. "Contrôle d'exécution, compréhension et apprentissage de plans d'actions développement de la méthode de la "Table triangulaire /". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608908j.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Escobar-Zuniga, María-José. "Modèles bio-inspirés pour l'estimation et l'analyse de mouvement : reconnaissance d'actions et intégration du mouvement". Nice, 2009. http://www.theses.fr/2009NICE4050.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse porte sur l'étude et la modélisation de la perception du mouvement chez le mammifère. Nous montrons comment un système bio-inspiré peut être appliqué dans le cadre d'une application réelle de vision par ordinateur, mais aussi comment il permet de mieux comprendre des phénomènes observés en neurosciences. La première partie de cette thèse étudie comment l'information visuelle est traitée chez le mammifère et comment l'estimation du mouvement est classiquement modelisée. A partir de cette analyse de l'état de l'art, nous avons proposé une architecture sequentielle générale, modélisant les aires corticales V1 et MT. Nous avons utilisé cette architecture pour étudier deux applications. La première application est la reconaissance d'actions dans les séquences d'images, problèmatique encore ouvert en vision par ordinateur. Nous montrons comment notre architecture bio-inspirée peut être appliquée avec succés dans le cadre de cette application réelle, en y apportant de nouvelles idées. En particulier, nous montrons comment la prise en compte de plusieurs propriétés du système visuel chez le mammifère nous permettent d'obtenir des résultats de haute qualité, comparables à ceux des approches les plus récentes. La deuxième application de l'architecture bio-inspirée proposée dans le cadre de cette thèse, est de chercher à comprendre la dynamique de l'intégration du mouvement. Pour cela, nous avons cherché à comprendre le rôle fonctionnel de la suppression du pourtour des neurones de V1. Notre modèle montre comment l'information 2D extraite à partir de ce mécanisme de suppression peut être intégrée dans la solution du problème d'ouverture. Enfin de nombreuse perspectives concluent ce travail, qui montrent combien l'étude de l'estimation de mouvement conserve encore de nombreuses problematiques
This thesis addresses the study of the motion perception in mammals and how bio-inspired systems can be applied to real applications. The first part of this thesis relates how the visual information is processed in the mammal's brains and how motion estimation is usually modeled. Based on this analysis of the state of the art, we propose a feedforward V1-MT core architecture. This feedforward V1-MT core architecture will be a basis to study two different kinds of applications. The first application is human action recognition, which is still a challenging problem in the computer vision community. We show how our bio-inspired method can be successfully applied to this real application. Interestingly, we show how several computational properties inspired from motion processing in mammals, allow us to reach high quality results, which will be compared to latest reference results. The second application of the bio-inspired architecture proposed in this thesis, is to consider the problem of motion integration for the solution of the aperture problem. We investigate the role of delayed V1 surround suppression, and how the 2D information extracted through this mechanism can be integrated to propose a solution for the aperture problem. Finally, we highlight a variety of important issues in the determination of motion estimation and additionally we present many potential avenues for future research efforts
29

Zeng, Tieyong. "Études de Modèles Variationnels et Apprentissage de Dictionnaires". Phd thesis, Université Paris-Nord - Paris XIII, 2007. http://tel.archives-ouvertes.fr/tel-00178024.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Nous nous sommes intéressés aux différents aspects mathématiques et pratiques de ce genre de méthodes: modélisation, analyse de propriétés de la solution d'un modèle, analyse numérique, apprentissage du dictionnaire et expérimentation. Après le Chapitre 1, qui retrace les étapes les plus significatives de ce domaine, nous présentons dans le Chapitre 2 notre implémentation et les résultats que nous avons obtenus avec le modèle consistant à résoudre \begin{equation}\label{tv-inf} \left\{\begin{array}{l} \min_{w} TV(w), \\ \mbox{sous les contraintes } |\PS{w-v}{\psi}|\leq \tau, \forall \psi \in \DD \end{array}\right. \end{equation} pour $v\in\RRN$, une donnée initiale, $\tau>0$, $TV(\cdot)$ la variation totale et un dictionnaire {\em invariant par translation} $\DD$. Le dictionnaire est, en effet, construit comme toutes les translations d'un ensemble $\FF$ d'éléments de $\RRN$ (des caractéristiques ou des patchs). L'implémentation de ce modèle avec ce genre de dictionnaire est nouvelle. (Les auteurs avaient jusque là considéré des dictionnaires de paquets d'ondelettes ou de curvelets.) La souplesse de la construction du dictionnaire a permis de conduire plusieurs expériences dont les enseignements sont rapportés dans les Chapitre 2 et 3. Les expériences du Chapitre 2 confirment que, pour obtenir de bons résultats en débruitage avec le modèle ci-dessus, le dictionnaire doit bien représenter la courbure des textures. Ainsi, lorsque l'on utilise un dictionnaire de Gabor, il vaut mieux utiliser des filtres de Gabor dont le support est isotrope (ou presque isotrope). En effet, pour représenter la courbure d'une texture ayant une fréquence donnée et vivant sur un support $\Omega$, il faut que le support, en espace, des filtres de Gabor permette un ``pavage'' avec peu d'éléments du support $\Omega$. Dans la mesure o\`{u}, pour une classe générale d'images, le support $\Omega$ est indépendant de la fréquence de la texture, le plus raisonnable est bien de choisir des filtres de Gabor dont le support est isotrope. Ceci est un argument fort en faveur des paquets d'ondelettes, qui permettent en plus d'avoir plusieurs tailles de supports en espace (pour une fréquence donnée) et pour lesquelles \eqref{tv-inf} peut être résolu rapidement. Dans le Chapitre 3 nous présentons des expériences dans lesquels le dictionnaire contient les courbures de formes connues (des lettres). Le terme d'attache aux données du modèle \eqref{tv-inf} autorise l'apparition dans le résidu $w^*-v$ de toutes les structures, sauf des formes ayant servi à construire le dictionnaire. Ainsi, on s'attend à ce que les forment restent dans le résultat $w^*$ et que les autres structures en soient absente. Nos expériences portent sur un problème de séparation de sources et confirment cette impression. L'image de départ contient des lettres (connues) sur un fond très structuré (une image). Nous montrons qu'il est possible, avec \eqref{tv-inf}, d'obtenir une séparation raisonnable de ces structures. Enfin ce travail met bien en évidence que le dictionnaire $\DD$ doit contenir la {\em courbure} des éléments que l'on cherche à préserver et non pas les éléments eux-mêmes, comme on pourrait le penser na\"{\i}vement. Le Chapitre 4 présente un travail dans lequel nous avons cherché à faire collaborer la méthode K-SVD avec le modèle \eqref{tv-inf}. Notre idée de départ est d'utiliser le fait que quelques itérations de l'algorithme qu'il utilise pour résoudre \eqref{tv-inf} permettent de faire réapparaître des structures absentes de l'image servant à l'initialisation de l'algorithme (et dont la courbure est présente dans le dictionnaire). Nous appliquons donc quelques une de ces itérations au résultat de K-SVD et retrouvons bien les textures perdues. Ceci permet un gain visuel et en PSNR. Dans le Chapitre 5, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Celle-ci consiste à appliquer un algorithme du point proximal à ce modèle. L'intérêt est de transformer un problème convexe non-différentiable en une suite (convergeant rapidement) de problèmes convexes très réguliers. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Cet algorithme permet d'améliorer considérablement la qualité (en terme de parcimonie) de la solution par rapport à l'état de l'art concernant la résolution pratique du Basis Pursuit. Nous nous espérons que cet algorithme devrait avoir un impact conséquent dans ce domaine en rapide développement. Dans le Chapitre 6, nous adapte aux cas d'un modèle variationnel, dont le terme régularisant est celui du Basis Pursuit et dont le terme d'attache aux données est celui du modèle \eqref{tv-inf}, un résultat de D. Donoho (voir [55]). Ce résultat montre que, sous une condition liant le dictionnaire définissant le terme régularisant au dictionnaire définissant le terme d'attache aux données, il est possible d'étendre les résultats de D. Donoho aux modèles qui nous intéressent dans ce chapitre. Le résultat obtenu dit que, si la donnée initiale est très parcimonieuse, la solution du modèle est proche de sa décomposition la plus parcimonieuse. Ceci garantie la stabilité du modèle dans ce cadre et fait un lien entre régularisation $l^1$ et $l^0$, pour ce type d'attache aux données. Le Chapitre 7 contient l'étude d'une variante du Matching Pursuit. Dans cette variante, nous proposons de réduire le produit scalaire avec l'élément le mieux corrélé au résidu, avant de modifier le résidu. Ceci pour une fonction de seuillage général. En utilisant des propriétés simples de ces fonctions de seuillage, nons montrons que l'algorithme ainsi obtenu converge vers la projection orthogonale de la donnée sur l'espace linéaire engendré par le dictionnaire (le tout modulo une approximation quantifiée par les caractéristiques de la fonction de seuillage). Enfin, sous une hypothèse faible sur la fonction de seuillage (par exemple le seuillage dur la satisfait), cet algorithme converge en un temps fini que l'on peut déduire des propriétés de la fonction de seuillage. Typiquement, cet algorithme peut-être utilisé pour faire les projections orthogonales dans l'algorithme ``Orthogonal Matching Pursuit''. Ceci nous n'avons pas encore été fait. Le Chapitre 8 explore enfin la problématique de l'apprentissage de dictionnaires. Le point de vue développé est de considerer cette problématique comme un problème d'estimation de paramètres dans une famille de modèles génératifs additifs. L'introduction de switchs aléatoires de Bernoulli activant ou désactivant chaque élément d'un dictionnaire invariant par translation à estimer en permet l'identification dans des conditions assez générales en particulier dans le cas o\`{u} les coefficients sont gaussiens. En utilisant une technique d'EM variationel et d'approximation de la loi a posteriori par champ moyen, nous dérivons d'un principe d'estimation par maximum de vraisemblance un nouvel algorithme effectif d'apprentissage de dictionaire que l'on peut apparenter pour certains aspects à l'algorithme K-SVD. Les résultats expérimentaux sur données synthétiques illustrent la possibilité d'une identification correcte d'un dictionaire source et de plusieurs applications en décomposition d'images et en débruitage.
30

Binsztok, Henri. "Apprentissage de modèles Markoviens pour l'analyse de séquences". Paris 6, 2007. http://www.theses.fr/2007PA066568.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Initialement, l'apprentissage supervisé a permis d'apprendre des modèles à partir de données étiquetées. Mais, pour de nombreuses tâches, notamment dans le cadre de la modélisation utilisateur, si la quantité de données disponible est potentiellement sans limite, la quantité de données étiquetées est quasi-nulle. Dans le cadre de cette thèse, nous nous intéressons à l'apprentissage non-supervisé de modèles de séquences. L'information de séquence constitue le premier niveau de données structurées, où les données ne sont plus de simples vecteurs de caractéristiques. Nous proposons des approches d'apprentissage non-supervisé de séquences que nous appliquons à l'apprentissage automatique de modèles de Markov cachés (MMC) et modèles de Markov cachés hiérarchiques (MMCH) notamment. Notre but est d'apprendre simultanément la structure et les paramètres de modèles markoviens, pour minimiser la quantité d'information a priori nécessaire
Initially, Machine Learning allowed to learn models from labeled data. But, for numerous tasks, notably for the task of user modeling, if the available quantity of data is potentially without limit, the quantity of labeled data is almost nonexistent. Within the framework of this thesis, we are interested in the unsupervised learning of sequence models. The information of sequence constitutes the first level of structured data, where the data are no more simple vectors of characteristics. We propose approaches that we apply to the automatic learning of Hidden Markov Models ( HMMs) and Hierarchical HMMs (HHMMs). Our purpose is to learn simultaneously the structure and the parameters of these Markovian Models, to minimize the quantity of prior information necessary to learn them
31

Do, Quoc khanh. "Apprentissage discriminant des modèles continus en traduction automatique". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS071/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses
Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives
32

Zeng, TieYong. "Etude de modèles variationnels et apprentissage de dictionnaires". Paris 13, 2007. http://www.theses.fr/2007PA132009.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Après avoir retracé les étapes les plus significatives de ce domaine, nous présentons notre implémentation et les résuktats que nous avons obtenus avec le modèle TV-l°° avec un dictionnaire invariant par translation, avec un dictionnaire ad-hoc et un dictionnaire construit à partir de caractéristiques connues d'une classe d'images. Ensuite, nous présentons un post-traitement, inspiré du modèle TV-l°°, que nous appliquons aux résultats obtenus avec K-SVD. Ce poste-traitement permet de retrouver des textures perdues et aboutit à un gain visuel et en PSNR. Dans le chapitre suivant, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Ce schéma consiste à appliquer un Algorithme du Point Proximal au pré-dual de ce modèle. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Nous étudions alors deux modèles de représentations parcimonieuses dans Rn et proposons l'algorithme du Soft-Threshold Matching Pursuit. Dans la suite, nous proposons le MP-shrinkage dans un espace de Hilbert, qui généralise de Matching Pursuit, et nous étudions les propriétés de convergence de cet algorithme. Enfin nous explorons la possibilité de construire un dictionnaire par une approche statistique. Les résultats expérimentaux sur des données synthétiques illustrent la possibilité d'identifier correctement un dictionnaire et permettent d'envisager plusieurs applications en décomposition et en débruitage d'images.
33

Slama, Rim. "Geometric approaches for 3D human motion analysis : application to action recognition and retrieval". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10078/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans le cadre de cette thèse, nous proposons des approches géométriques permettant d’analyser des mouvements humains à partir de données issues de capteurs 3D. Premièrement, nous abordons le problème de comparaison de poses et de mouvements dans des séquences contenant des modèles de corps humain en 3D. En introduisant un nouveau descripteur, appelé Extremal Human Curve (EHC), la forme du corps humain dans une pose donnée est décrite par une collection de courbes. Ces courbes extraites de la surface du maillage relient les points se situant aux extrémités du corps. Dans un formalisme Riemannien, chacune de ces courbes est considérée comme un point dans un espace de formes offrant la possibilité de les comparer. Par ailleurs, les actions sont modélisées par des trajectoires dans cet espace, où elles sont comparées en utilisant la déformation temporelle dynamique. Deuxièmement, nous proposons une approche de reconnaissance d’actions et de gestes à partir de vidéos produites par des capteurs de profondeur. A travers une modélisation géométrique, une séquence d’action est représentée par un système dynamique dont la matrice d’observabilité est caractérisée par un élément de la variété de Grassmann. Par conséquent, la reconnaissance d’actions est reformulée en un problème de classification de points sur cette variété. Ensuite, un nouvel algorithme d’apprentissage basé sur la notion d’espaces tangents est proposé afin d’améliorer le système de reconnaissance. Les résultats de notre approche, testés sur plusieurs bases de données, donnent des taux de reconnaissance de haute précision et de faible latence
In this thesis, we focus on the development of adequate geometric frameworks in order to model and compare accurately human motion acquired from 3D sensors. In the first framework, we address the problem of pose/motion retrieval in full 3D reconstructed sequences. The human shape representation is formulated using Extremal Human Curve (EHC) descriptor extracted from the body surface. It allows efficient shape to shape comparison taking benefits from Riemannian geometry in the open curve shape space. As each human pose represented by this descriptor is viewed as a point in the shape space, we propose to model the motion sequence by a trajectory on this space. Dynamic Time Warping in the feature vector space is then used to compare different motions. In the second framework, we propose a solution for action and gesture recognition from both skeleton and depth data acquired by low cost cameras such as Microsoft Kinect. The action sequence is represented by a dynamical system whose observability matrix is characterized as an element of a Grassmann manifold. Thus, recognition problem is reformulated as a point classification on this manifold. Here, a new learning algorithm based on the notion of tangent spaces is proposed to improve recognition task. Performances of our approach on several benchmarks show high recognition accuracy with low latency
34

BASTIE, CHRISTINE. "Integration de la planification et du suivi d'execution d'actions paralleles : le systeme speedy". Toulouse 3, 1997. http://www.theses.fr/1997TOU30200.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette these decrit la realisation d'un systeme general de planification et d'execution dont le but est de piloter un agent autonome dans un univers dynamique. Nous proposons pour cela une methode originale d'entrelacement de la planification lineaire et de l'execution parallele d'actions. Nous decrivons le fonctionnement de speedy (systeme de planification et d'execution en environnement dynamique) qui est la mise en uvre de cette approche. Pour que speedy puisse s'adapter a la dynamique de l'environnement, nous avons plus particulierement etudie le processus de suivi d'execution pour lequel nous proposons des algorithmes originaux. Notre these comporte trois parties : ? la premiere partie presente les differents problemes lies a la forte dependance entre la planification et l'execution. Elle se poursuit par une classification des systemes qui ont aborde ces problemes. ? la deuxieme partie expose notre methode. Nous donnons les specifications completes et expliquons le fonctionnement de speedy (en utilisant le formalisme sart) et des trois processus principaux qui le composent : planification lineaire, recherche des actions executables en parallele et suivi d'execution. ? enfin, la troisieme partie detaille le fonctionnement du processus de suivi d'execution : detection et classification des anomalies, puis fonctionnement des politiques, strategies et tactiques de reprise d'execution.
35

Gaudel, Romaric. "Paramètres d'ordre et sélection de modèles en apprentissage : caractérisation des modèles et sélection d'attributs". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00549090.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous nous intéressons à la sélection de modèle en apprentissage automatique, sous deux angles différents. La première partie de la thèse concerne les méthodes à noyau relationnel. Les méthodes à noyau permettent en principe de s'affranchir de la représentation des instances, et de combler le fossé entre apprentissage relationnel et apprentissage propositionnel. Cette thèse s'intéresse à la faisabilité de cet objectif dans un cas particulier : les problèmes à instances multiples, qui sont considérés comme un intermédiaire entre les problèmes propositionnels et les problèmes relationnels. Concrètement, nous déterminons sous quelles conditions le noyau-somme, utilisé sur des problèmes à instances multiples, est en mesure de reconstruire le concept-cible. Cette étude suit le schéma standard des études de transition de phase et s'appuie sur un critère nouveau pour caractériser l'efficacité de la propositionnalisation induite par le noyau-somme. La deuxième partie de la thèse porte sur la sélection d'attributs. Une solution pour résoudre les problèmes à instances multiples, tels que présentés en première partie, passe par une propositionnalisation associant un attribut à chaque instance présente dans le problème. Le nombre d'attributs ainsi construits étant gigantesque, il est alors nécessaire de sélectionner un sous-ensemble d'attributs ne contenant que des attributs pertinents. La deuxième partie de la thèse propose donc une nouvelle approche pour la sélection d'attributs. La sélection d'attributs est réécrite comme un problème d'apprentissage par renforcement, conduisant ainsi à une politique de sélection optimale mais non-calculable en un temps raisonnable. Cette politique est approchée en se fondant sur une approche de jeu à un joueur et en utilisant la méthode Monte-Carlo pour les arbres UCT (Upper Confidence bound applied to Trees), qui a été proposée par Kocsis et Szepesvari (2006). L'algorithme FUSE (Feature Uct SElection) étend UCT pour gérer (1) l'horizon fini mais inconnu, et (2) le facteur de branchement élevé de l'arbre de recherche reflétant la taille de l'ensemble d'attributs. Finalement, une fonction de récompense frugale est proposée en tant qu'estimation grossière mais non-biaisée de la pertinence d'un sous-ensemble d'attributs. Une preuve de concept de FUSE est fournie sur des bases de données de référence.
36

Letard, Vincent. "Apprentissage incrémental de modèles de domaines par interaction dialogique". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS100/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'intelligence artificielle est la discipline de recherche d'imitation ou de remplacement de fonctions cognitives humaines. À ce titre, l'une de ses branches s'inscrit dans l'automatisation progressive du processus de programmation. Il s'agit alors de transférer de l'intelligence ou, à défaut de définition, de transférer de la charge cognitive depuis l'humain vers le système, qu'il soit autonome ou guidé par l'utilisateur. Dans le cadre de cette thèse, nous considérons les conditions de l'évolution depuis un système guidé par son utilisateur vers un système autonome, en nous appuyant sur une autre branche de l'intelligence artificielle : l'apprentissage artificiel. Notre cadre applicatif est celui de la conception d'un assistant opérationnel incrémental, c'est-à-dire d'un système capable de réagir à des requêtes formulées par l'utilisateur en adoptant les actions appropriées, et capable d'apprendre à le faire. Pour nos travaux, les requêtes sont exprimées en français, et les actions sont désignées par les commandes correspondantes dans un langage de programmation (ici, R ou bash). L'apprentissage du système est effectué à l'aide d'un ensemble d'exemples constitué par les utilisateurs eux-mêmes lors de leurs interactions. Ce sont donc ces derniers qui définissent, progressivement, les actions qui sont appropriées pour chaque requête, afin de rendre le système de plus en plus autonome. Nous avons collecté plusieurs ensembles d'exemples pour l'évaluation des méthodes d'apprentissage, en analysant et réduisant progressivement les biais induits. Le protocole que nous proposons est fondé sur l'amorçage incrémental des connaissances du système à partir d'un ensemble vide ou très restreint. Cela présente l'avantage de constituer une base de connaissances très représentative des besoins des utilisateurs, mais aussi l'inconvénient de n'aquérir qu'un nombre très limité d'exemples. Nous utilisons donc, après examen des performances d'une méthode naïve, une méthode de raisonnement à partir de cas : le raisonnement par analogie formelle. Nous montrons que cette méthode permet une précision très élevée dans les réponses du système, mais également une couverture relativement faible. L'extension de la base d'exemples par analogie est explorée afin d'augmenter la couverture des réponses données. Dans une autre perspective, nous explorons également la piste de rendre l'analogie plus tolérante au bruit et aux faibles différences en entrée en autorisant les approximations, ce qui a également pour effet la production de réponses incorrectes plus nombreuses. La durée d'exécution de l'approche par analogie, déjà de l'ordre de la seconde, souffre beaucoup de l'extension de la base et de l'approximation. Nous avons exploré plusieurs méthodes de segmentation des séquences en entrée afin de réduire cette durée, mais elle reste encore le principal obstacle à contourner pour l'utilisation de l'analogie formelle dans le traitement automatique de la langue. Enfin, l'assistant opérationnel incrémental fondé sur le raisonnement analogique a été testé en condition incrémentale simulée, afin d'étudier la progression de l'apprentissage du système au cours du temps. On en retient que le modèle permet d'atteindre un taux de réponse stable après une dizaine d'exemples vus en moyenne pour chaque type de commande. Bien que la performance effective varie selon le nombre total de commandes considérées, cette propriété ouvre sur des applications intéressantes dans le cadre incrémental du transfert depuis un domaine riche (la langue naturelle) vers un domaine moins riche (le langage de programmation)
Artificial Intelligence is the field of research aiming at mimicking or replacing human cognitive abilities. As such, one of its subfields is focused on the progressive automation of the programming process. In other words, the goal is to transfer cognitive load from the human to the system, whether it be autonomous or guided by the user. In this thesis, we investigate the conditions for making a user-guided system autonomous using another subfield of Artificial Intelligence : Machine Learning. As an implementation framework, we chose the design of an incremental operational assistant, that is a system able to react to natural language requests from the user with relevant actions. The system must also be able to learn the correct reactions, incrementally. In our work, the requests are in written French, and the associated actions are represented by corresponding instructions in a programming language (here R and bash). The learning is performed using a set of examples composed by the users themselves while interacting. Thus they progressively define the most relevant actions for each request, making the system more autonomous. We collected several example sets for evaluation of the learning methods, analyzing and reducing the inherent collection biases. The proposed protocol is based on incremental bootstrapping of the system, starting from an empty or limited knowledge base. As a result of this choice, the obtained knowledge base reflects the user needs, the downside being that the overall number of examples is limited. To avoid this problem, after assessing a baseline method, we apply a case base reasoning approach to the request to command transfer problem: formal analogical reasoning. We show that this method yields answers with a very high precision, but also a relatively low coverage. We explore the analogical extension of the example base in order to increase the coverage of the provided answers. We also assess the relaxation of analogical constraints for an increased tolerance of analogical reasoning to noise in the examples. The running delay of the simple analogical approach is already around 1 second, and is badly influenced by both the automatic extension of the base and the relaxation of the constraints. We explored several segmentation strategies on the input examples in order to reduce reduce this time. The delay however remains the main obstacle to using analogical reasoning for natural language processing with usual volumes of data. Finally, the incremental operational assistant based on analogical reasoning was tested in simulated incremental condition in order to assess the learning behavior over time. The system reaches a stable correct answer rate after a dozen examples given in average for each command type. Although the effective performance depends on the total number of accounted commands, this observation opens interesting applicative tracks for the considered task of transferring from a rich source domain (natural language) to a less rich target domain (programming language)
37

Ghali, Ali. "Transactions intérimaires : impact sur l'évaluation de la performance des fonds mutuels d'actions américaines". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26352.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette étude propose d'évaluer la performance des fonds mutuels d'actions américaines gérés activement en tenant compte du bais de transactions intérimaires. Nous appliquons l'approche du facteur d'escompte stochastique à l'aide de modèles linéaires à facteurs en utilisant tant des données mensuelles que quotidiennes. Nous utilisons les trois modèles les plus populaires dans la littérature, soit le CAPM, le modèle de Fama-French et le modèle de Carhart, et les estimons avec deux ensembles d'actifs de base, soit les propres facteurs de ces modèles ou des portefeuilles passifs constitués de dix portefeuilles industriels et six portefeuilles de style. Le principal objectif est donc de comparer formellement la performance obtenue avec les mesures mensuelles traditionnelles à celles obtenues avec les mesures mensuelles capitalisées à partir de mesures quotidiennes, afin de mettre en évidence la présence du biais de transactions intérimaires dans l'évaluation de la performance. Nos résultats montrent que les mesures mensuelles tendent à attribuer plus de performance que leur équivalentes capitalisées. De plus, ils révèlent que la proportion de performances significativement négatives augmente lorsque les mesures capitalisées sont appliquées. Les transactions intérimaires ne semblent toutefois pas avoir un effet significatif sur la performance moyenne des fonds et son impact apparaît économiquement faible. Cependant, les résultats de l'analyse individuelle des fonds montrent qu'un nombre important de fonds voient leur performance révisée à la hausse ou à la baisse avec les mesures ajustées pour le biais. La proportion de fonds dont la performance est ajustée à la baisse est plus élevée que celle ajustée à la hausse. Mots clés : approche SDF, données quotidiennes, évaluation de la performance, fonds mutuels d'actions, modèles linéaires à facteurs, transactions intérimaires.
38

Ghorbel, Enjie. "Reconnaissance rapide et précise d'actions humaines à partir de caméras RGB-D". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR027/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
ARécemment, les caméras RGB-D ont été introduites sur le marché et ont permis l’exploration de nouvelles approches de reconnaissance d’actions par l’utilisation de deux modalités autres que les images RGB, à savoir, les images de profondeur et les séquences de squelette. Généralement, ces approches ont été évaluées en termes de taux de reconnaissance. Cette thèse s’intéresse principalement à la reconnaissance rapide d’actions à partir de caméras RGB-D. Le travail a été focalisé sur une amélioration conjointe de la rapidité de calcul et du taux de reconnaissance en vue d’une application temps-réel. Dans un premier temps, nous menons une étude comparative des méthodes existantes de reconnaissance d’actions basées sur des caméras RGB-D en utilisant les deux critères énoncés : le taux de reconnaissance et la rapidité de calcul. Suite aux conclusions résultant de cette étude, nous introduisons un nouveau descripteur de mouvement, à la fois précis et rapide, qui se base sur l’interpolation par splines cubiques de valeurs cinématiques du squelette, appelé Kinematic Spline Curves (KSC). De plus, afin de pallier les effets négatifs engendrés par la variabilité anthropométrique, la variation d’orientation et la variation de vitesse, des méthodes de normalisation spatiale et temporelle rapide ont été proposées. Les expérimentations menées sur quatre bases de données prouvent la précision et la rapidité de ce descripteur. Dans un second temps, un deuxième descripteur appelé Hiearchical Kinematic Coavarince(HKC) est introduit. Ce dernier est proposé dans l’optique de résoudre la question de reconnaissance rapide en ligne. Comme ce descripteur n’appartient pas à un espace euclidien, mais à l’espace des matrices Symétriques semi-Définies Positives (SsDP), nous adaptons les méthodes de classification à noyau par l’introduction d’une distance inspirée de la distance Log-Euclidienne, que nous appelons distance Log-Euclidienne modifiée. Cette extension nous permet d’utiliser des classifieurs adaptés à l’espace de caractéristiques (SPsD).Une étude expérimentale montre l’efficacité de cette méthode non seulement en termes de rapidité de calcul et de précision, mais également en termes de latence observationnelle. Ces conclusions prouvent que cette approche jointe à une méthode de segmentation d’actions pourrait s’avérer adaptée à la reconnaissance en ligne et ouvrent ainsi de nouvelles perspectives pour nos travaux futurs
The recent availability of RGB-D cameras has renewed the interest of researchers in the topic of human action recognition. More precisely, several action recognition methods have been proposed based on the novel modalities provided by these cameras, namely, depth maps and skeleton sequences. These approaches have been mainly evaluated in terms of recognition accuracy. This thesis aims to study the issue of fast action recognition from RGB-D cameras. It focuses on proposing an action recognition method realizing a trade-off between accuracy and latency for the purpose of applying it in real-time scenarios. As a first step, we propose a comparative study of recent RGB-D based action recognition methods using the two cited criteria: accuracy of recognition and rapidity of execution. Then, oriented by the conclusions stated thanks to this comparative study, we introduce a novel, fast and accurate human action descriptor called Kinematic Spline Curves (KSC).This latter is based on the cubic spline interpolation of kinematic values. Moreover, fast spatialand temporal normalization are proposed in order to overcome anthropometric variability, orientation variation and rate variability. The experiments carried out on four different benchmarks show the effectiveness of this approach in terms of execution time and accuracy. As a second step, another descriptor is introduced, called Hierarchical Kinematic Covariance(HKC). This latter is proposed in order to solve the issue of fast online action recognition. Since this descriptor does not belong to a Euclidean space, but is an element of the space of Symmetric Positive semi-definite (SPsD) matrices, we adapt kernel classification methods by the introduction of a novel distance called Modified Log-Euclidean, which is inspiredfrom Log-Euclidean distance. This extension allows us to use suitable classifiers to the feature space SPsD of matrices. The experiments prove the efficiency of our method, not only in terms of rapidity of calculation and accuracy, but also in terms of observational latency. These conclusions show that this approach combined with an action segmentation method could be appropriate to online recognition, and consequently, opens up new prospects for future works
39

Châtel, Célia. "Modèles de classification en classes empiétantes : cas des modèles arborés". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0538.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le but des modèles traditionnels en classification (comme les partitions et les hiérarchies de parties) est de permettre de discriminer sans ambiguïté et donc de produire des classes non empiétantes (i.e. l’intersection de deux classes est vide ou une classe est incluse dans l'autre). Cependant, cette exigence de non ambiguïté peut conduire à occulter de l’information. Dans le cas des plantes hybrides en biologie par exemple ou encore de textes appartenant à plusieurs genres en analyse textuelle. Les modèles généraux comme les hypergraphes ou les treillis permettent de prendre en compte l’empiétance entre les classes. Plus précisément, les modèles dits "totalement équilibrés" autorisent l'empiétance tout en conservant certaines contraintes utiles en classification.En apprentissage automatique, les arbres de décision, très utilisés pour leur simplicité d'utilisation et de compréhension réalisent à chaque étape un partitionnement d'un ensemble en deux sous-ensembles.Nous montrons dans ce travail différents liens entre la classification traditionnelle et l'apprentissage automatique supervisé et montrons certains apports que chacun des deux mondes peut faire à l'autre.Nous proposons deux méthodes de classification mêlant les deux univers puis étendons la notion de binarité, très utilisée dans le cas des arbres, aux hypergraphes et aux treillis. Nous montrons alors l'équivalence entre les systèmes binarisables et les systèmes totalement équilibrés, faisant de ces derniers de parfaits candidats à la réalisation de modèles de classification en classes empiétantes. Nous proposons également diverses approximations de systèmes par des systèmes totalement équilibrés
Traditionally, classification models (such as partitions and hierarchies) aim at separating without ambiguities and produce non-overlapping clusters (i.e two clusters are either disjoint or one is included in the other). However, this non ambiguity may lead to mask information such as in the case of hybrid plants in biology or of texts which belong to two (or more) different genres in textual analysis for instance. General models like hypergraphs or lattices allow to take into account overlapping clusters. More precisely, "totally balanced" models allows class infringement and presents some useful constraints for classification.In machine learning, decision trees are a widely used model as they are simple to use and understand. They are also based on the idea of partition of sets.We show in this work different links between traditional classification and supervised machine learning and show what each world can bring to the other.We propose two methods of classification which link the two universes. We then extend the notion of binarity, widely-used for trees, to hypergraphs and lattices. We show the equivalence between binarizable systems and totally balanced systems, which makes of totally balanced structures a great candidate for classification models with class infringement. We also propose some approximation methods of any system (lattice, hypergraph, dissimilarity) by a totally balanced one
40

Bétourné, Nathalie. "De l'existence d'une mémoire pour les rendements d'actions : le cas des titres du CAC 40". Littoral, 2001. http://www.theses.fr/2001DUNK0066.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Sur les marchés boursiers, la volatilité des titres est décrite analytiquement à partir de la théorie des fractals introduits par Mandelbrot en 1950. Celle-ci permet de déterminer l'existence d'une dépendance longue de la volatilité en introduisant la statistique R/S (ou exposant de 'Hurst') définie par Lo (1991) et développée par Jacobsen (1996). Les résultats positifs du test obtenus sur l'analyse de la volatilité ne sont pas concluants quant à l'évolution des rendements d'actions de l'indice CAC 40. On montre, en effet, quelle que soit la taille de l'échantillon, que l'introduction d'un effet de court terme (modèles autorégressifs) dans la statistique diminue la valeur de l'exposant : la mémoire longue ne peut être décelée car l'effet de long terme est couplé à un effet de court terme. De plus, plus la taille des transactions est élevée, plus la valeur de la statistique diminue : l'effet de court terme prédomine sur l'effet de long terme ; l'information contenue dans les prix, quelle soit privée ou publique, dépend du comportement stratégiques des investisseurs en séance (mimétisme) en fonction des critères de liquidité, de la fourchette des prix, du volume d'échange et de l'effet lead-lag. La réaction d'immédiateté d'un investisseur pour un motif spéculatif ou de liquidité, enchaîne une dépendance de court terme des rendements d'actions : la stratégie dépend de l'évolution des prix passés. On montre, à partir d'un modèle auto-régressif de type GARCH(1,1) "modifié" élaboré par Zumbach (1999) que la mémoire courte existe. La corrélation négative liant la durée séparant deux transactions successives à la volatilité nous permet d'aborder l'effet de court terme par une seconde approche. On décide d'étendre le processus GARCH(1,1) "modifié" de Zumbach en un modèle combiné GARCH(1,1)-ACD afin de prendre en compte l'influence du facteur temporel. Les résultats montrent que la mémoire courte des rendements d'actions existe, les écarts d'erreurs d'estimation étant plus faibles avec l'utilisation du modèle combiné
The volatility of securities is followed analytically on the financial markets by fractals theory introduced by Mandelbrot in 1950. This theory let determine the existence of the volatility long memory by introducing the R/S statistic (or "Hurst" exponent) defined by Lo (1991) and developped by Jacobsen (1996). The tests positive results attained on the analyse of the volatility do not concluded these obtained on the analyse of asset returns. We show indeed that the introduction of short term effect (autoregressiv models) in the statistic reduce the exponent value despite of the sample size : the long memory do not exist because of the short term-long term couple. The more transactions size is high the more the statistic value decrease : the sort term effect prevail on the long term effect ; the private and public information price depend on the investors strategic behavior of the session (the investors mimetism) function of the liquidity, the spread, the volume and the lead-lag effect criterias. An investor with an immediat reaction for speculation or liquid patterns lead a short term dependence of asser returns : their strategy depend on the evolution of past prices. We show that the short memory exist from an autoregressiv model modified GARCH introduced by Zumbach (1999). We can have a second approach of the short term effect from the duration between transaction prices and the volatility negativ correlation. We extend the modified GARCH(1,1) process of Zumbach by a mixed GARCH(1,1)-ACD process for getting account the duration factor. The results show that the asset returns short memory exist and the deviation of the errors estimations are lower with the mixed GARCH(1,1)-ACD process
41

Galand, Gabriel. "Monnaie et échanges décentralisés : des modèles de prospection aux modèles comportementaux". Châtenay-Malabry, Ecole centrale de Paris, 2006. http://www.theses.fr/2006ECAP1069.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce travail, nous développons et justifions l'idée selon laquelle la monnaie ne peut s'insérer dans les modèles économiques que si l'échange monétaire est représenté de manière décentralisée, c'est -à-dire non agrégé. Dans ce cas la monnaie ne devrait pas être neutre et les modèles ne devraient pas être dichotomiques. Les modèles de prospection fournissent une première approche. Nous adaptons les modèles traditionnels à un circuit monétaire, puis nous enrichissons progessivement ce circuit. D'abord nous ontroduisons des capacités financières d'épargne et de crédit dans un circuit à prix fixe. Puis nous rendons encaisses et biens variables dans des modèles avec prix endogène, ce qui à notre connaissance est un apport original. Cependant, cette première partie conclue aussi que ces modèles sont fondamentalement dichotomiques, et qu'il faut pousser plus loin la décentralisation, vers des modèles à information limitée et sans équilibre global. Nous développons de tels modèles, d'abord sous forme d'un circuit simple avec un marché des biens compétitif entre 2000 consommateurs et 30 producteurs, puis plus complexe avec des fonctionnalités d'épargne financière et de dette ainsi que de gestion encaisses. Il y a aussi des investissements des producteurs ainsi qu'un mécanisme de faillite qui limite les dettes. Les principaux résultats sont, d'abord que lorsque la concurrence peut s'exprimer localement la monnaie n'est plus neutre. Ensuite qu'en information limitée, les entreprises peuvent avoir des comportements quasi-rationnels d'ententes implicites pour limiter la concurrence. Enfin, malgré l'absence de mécanismes d'équilibre au sens néo-classique, les modèles présentent tout de même des régularités intéressantes, voire des quasi équilibres, ce qui montre que ces modèles numérqiues avec grand nombre d'agents seront certainement utilisables dans d'autres contextes.
42

Châtel, Célia. "Modèles de classification en classes empiétantes : cas des modèles arborés". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0538/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le but des modèles traditionnels en classification (comme les partitions et les hiérarchies de parties) est de permettre de discriminer sans ambiguïté et donc de produire des classes non empiétantes (i.e. l’intersection de deux classes est vide ou une classe est incluse dans l'autre). Cependant, cette exigence de non ambiguïté peut conduire à occulter de l’information. Dans le cas des plantes hybrides en biologie par exemple ou encore de textes appartenant à plusieurs genres en analyse textuelle. Les modèles généraux comme les hypergraphes ou les treillis permettent de prendre en compte l’empiétance entre les classes. Plus précisément, les modèles dits "totalement équilibrés" autorisent l'empiétance tout en conservant certaines contraintes utiles en classification.En apprentissage automatique, les arbres de décision, très utilisés pour leur simplicité d'utilisation et de compréhension réalisent à chaque étape un partitionnement d'un ensemble en deux sous-ensembles.Nous montrons dans ce travail différents liens entre la classification traditionnelle et l'apprentissage automatique supervisé et montrons certains apports que chacun des deux mondes peut faire à l'autre.Nous proposons deux méthodes de classification mêlant les deux univers puis étendons la notion de binarité, très utilisée dans le cas des arbres, aux hypergraphes et aux treillis. Nous montrons alors l'équivalence entre les systèmes binarisables et les systèmes totalement équilibrés, faisant de ces derniers de parfaits candidats à la réalisation de modèles de classification en classes empiétantes. Nous proposons également diverses approximations de systèmes par des systèmes totalement équilibrés
Traditionally, classification models (such as partitions and hierarchies) aim at separating without ambiguities and produce non-overlapping clusters (i.e two clusters are either disjoint or one is included in the other). However, this non ambiguity may lead to mask information such as in the case of hybrid plants in biology or of texts which belong to two (or more) different genres in textual analysis for instance. General models like hypergraphs or lattices allow to take into account overlapping clusters. More precisely, "totally balanced" models allows class infringement and presents some useful constraints for classification.In machine learning, decision trees are a widely used model as they are simple to use and understand. They are also based on the idea of partition of sets.We show in this work different links between traditional classification and supervised machine learning and show what each world can bring to the other.We propose two methods of classification which link the two universes. We then extend the notion of binarity, widely-used for trees, to hypergraphs and lattices. We show the equivalence between binarizable systems and totally balanced systems, which makes of totally balanced structures a great candidate for classification models with class infringement. We also propose some approximation methods of any system (lattice, hypergraph, dissimilarity) by a totally balanced one
43

Chan-Hon-Tong, Adrien. "Segmentation supervisée d'actions à partir de primitives haut niveau dans des flux vidéos". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066226/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse porte sur la segmentation supervisée de flux vidéo dans un contexte applicatif lié à la reconnaissance d'actions de la vie courante.La méthode de segmentation proposée est dérivée la méthode des modèles de formes implicites (Implicit Shape Model) et s'obtient en optimisant les votes présents dans cette méthode d'élection.Nous démontrons que cette optimisation (dans un contexte de fenêtre temporelle glissante) peut être exprimée de manière équivalente dans le formalisme des SVM en imposant une contrainte de cohérence temporelle à l'apprentissage, ou, en représentant la fenêtre glissante selon une décomposition pyramidale dense.Tout ce processus est validé expérimentalement sur un jeu de données de la littérature de segmentation supervisée.Il y surpasse les autres méthodes de type modèles de formes implicites et le SVM linéaire standard.La méthode proposée est ensuite mise en œuvre dans le cadre de la segmentation supervisée d'actions.Pour cela, des primitives dédiées sont extraites des données squelette de la personne d'intérêt obtenues grâce à des logiciels standards.Ces primitives sont ensuite quantifiées puis utilisées par la méthode d'élection.Ce système de segmentation d'actions obtient les meilleurs scores de l'état de l'art sur un jeu de données de la littérature de reconnaissance d'actions, ce qui valide cette combinaison des primitives et de la méthode d'élection
This thesis focuses on the supervised segmentation of video streams within the application context of daily action recognition.A segmentation algorithm is obtained from Implicit Shape Model by optimising the votes existing in this polling method.We prove that this optimisation can be linked to the sliding windows plus SVM framework and more precisely is equivalent with a standard training by adding temporal constraint, or, by encoding the data through a dense pyramidal decomposition. This algorithm is evaluated on a public database of segmentation where it outperforms other Implicit Shape Model like methods and the standard linear SVM.This algorithm is then integrated into a action segmentation system.Specific features are extracted from skeleton obtained from the video by standard software.These features are then clustered and given to the polling method.This system, combining our feature and our algorithm, obtains the best published performance on a human daily action segmentation dataset
44

Barnachon, Mathieu. "Reconnaissance d'actions en temps réel à partir d'exemples". Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00820113.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le développement de l'image numérique et des outils associés ces dernières années a entraîné une évolution dans les attentes des utilisateurs et des changements dans leurs habitudes de travail. Cette évolution apporte de nouvelles possibilités d'utilisation ouvrant l'usage à un public très large, allant des interactions gestuelles aux jeux vidéo, en passant par le suivi d'activités à domicile, la surveillance, ... Pour qu'elles puissent être performantes et attractives, ces nouvelles technologies nécessitent la mise en œuvre d'outils de reconnaissance et d'interprétation des gestes humains, par des méthodes efficaces, rapides et ouvertes. Actuellement, les méthodes proposées en reconnaissance d'actions peuvent être regroupées en trois catégories principales : les approches de type apprentissage automatique (Machine Learning), les modélisations stochastique ou encore les méthodes utilisant le paradigme des examplars. Les travaux développés dans cette thèse se rattachent à cette dernière catégorie : " méthodes à base d'exemples " (examplar-based) où l'apprentissage peut être fait à partir de quelques instances représentatives. Nous avons fait le choix d'une démarche qui limite le recours à des grandes bases de données, et qui permet la reconnaissance d'action de façon anticipée, c'est-à-dire avant que cette dernière ne soit finie. Pour ce faire, nos travaux ont été menés selon deux visions complémentaires, avec le soucis constant d'aboutir à des traitements qui soient temps réel, précis et ouverts à la reconnaissance de nouvelles actions
45

Mensink, Thomas. "Apprentissage de Modèles pour la Classification et la Recherche d'Images". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00752022.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art.
46

Keriven, Nicolas. "Apprentissage de modèles de mélange à large échelle par Sketching". Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S055/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les bases de données modernes sont de très grande taille, parfois divisées et distribuées sur plusieurs lieux de stockage, ou encore sous forme de flux de données : ceci soulève de nouveaux défis majeurs pour les méthodes d’apprentissage statistique. Une des méthodes récentes capable de s’adapter à ces situations consiste à d’abord compresser les données en une structure appelée sketch linéaire, puis ensuite de réaliser la tâche d’apprentissage en utilisant uniquement ce sketch, ce qui est extrêmement rapide si celui-ci est de petite taille. Dans cette thèse, nous définissons une telle méthode pour estimer un modèle de mélange de distributions de probabilités à partir des données, en utilisant uniquement un sketch de celles-ci. Ce sketch est défini en s’inspirant de plusieurs notions venant du domaine des méthodes à noyaux : le plongement par noyau moyen et les approximations aléatoires de noyaux. Défini comme tel, le sketch correspond à des mesures linéaires de la distribution de probabilité sous-jacente aux données. Ainsi nous analysons le problème en utilisant des outils venant du domaine de l’acquisition comprimée, dans lequel un signal est mesuré aléatoirement sans perte d’information, sous certaines conditions. Nous étendons certains résultats de l’acquisition comprimée à la dimension infinie, donnons des conditions génériques garantissant le succès de notre méthode d’estimation de modèles de mélanges, et les appliquons à plusieurs problèmes, dont notamment celui d’estimer des mélanges de distributions stables multivariées, pour lequel il n’existait à ce jour aucun estimateur. Notre analyse est basée sur la construction d’opérateurs de sketch construits aléatoirement, qui satisfont une Propriété d’Isométrie Restreinte dans l’espace de Banach des mesures finies signées avec forte probabilité. Dans une second partie, nous introduisons un algorithme glouton capable heuristiquement d’estimer un modèle de mélange depuis un sketch linéaire. Cet algorithme est appliqué sur données simulées et réelles à trois problèmes : l’estimation de centres significatifs dans les données, pour lequel on constate que la méthode de sketch est significativement plus rapide qu’un algorithme de k-moyennes classique, l’estimation de mélanges de Gaussiennes, pour lequel elle est plus rapide qu’un algorithme d’Espérance-Maximisation, et enfin l’estimation de mélange de distributions stables multivariées, pour lequel il n’existait à ce jour, à notre connaissance, aucun algorithme capable de réaliser une telle tâche
Learning parameters from voluminous data can be prohibitive in terms of memory and computational requirements. Furthermore, new challenges arise from modern database architectures, such as the requirements for learning methods to be amenable to streaming, parallel and distributed computing. In this context, an increasingly popular approach is to first compress the database into a representation called a linear sketch, that satisfies all the mentioned requirements, then learn the desired information using only this sketch, which can be significantly faster than using the full data if the sketch is small. In this thesis, we introduce a generic methodology to fit a mixture of probability distributions on the data, using only a sketch of the database. The sketch is defined by combining two notions from the reproducing kernel literature, namely kernel mean embedding and Random Features expansions. It is seen to correspond to linear measurements of the underlying probability distribution of the data, and the estimation problem is thus analyzed under the lens of Compressive Sensing (CS), in which a (traditionally finite-dimensional) signal is randomly measured and recovered. We extend CS results to our infinite-dimensional framework, give generic conditions for successful estimation and apply them analysis to many problems, with a focus on mixture models estimation. We base our method on the construction of random sketching operators such that some Restricted Isometry Property (RIP) condition holds in the Banach space of finite signed measures with high probability. In a second part we introduce a flexible heuristic greedy algorithm to estimate mixture models from a sketch. We apply it on synthetic and real data on three problems: the estimation of centroids from a sketch, for which it is seen to be significantly faster than k-means, Gaussian Mixture Model estimation, for which it is more efficient than Expectation-Maximization, and the estimation of mixtures of multivariate stable distributions, for which, to our knowledge, it is the only algorithm capable of performing such a task
47

Nakoula, Yassar. "Apprentissage des modèles linguistiques flous, par jeu de règles pondérées". Chambéry, 1997. http://www.theses.fr/1997CHAMS018.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'utilisation d'une formulation purement mathématique s'avère souvent lourde, voire difficilement exploitable pour la modélisation des systèmes complexes. Les modèles linguistiques flous (ou modèles de Mamdani) sont quant à eux intéressants de par leur pouvoir explicatif dû à l'utilisation de variables linguistiques, mais aussi par le fait qu'ils offrent la possibilité d'inclure des connaissances humaines exprimées sous forme de règles linguistiques. L'apprentissage de ce type de modèles est en général effectué en divisant le processus d'apprentissage en deux sous-problèmes qui sont résolus indépendamment : la construction des sous-ensembles flous de référence, d'une part, la détermination de la base de règles, d'autre part. Cependant, de par la haute dépendance entre la discrétisation floue et la génération de la base de règles, la division de la stratégie d'apprentissage peut mener à des modèles inappropriés ou non optimaux. Dans ce contexte, nous avons développé une solution alternative d'apprentissage de modèles linguistiques à partir de données numériques. L'idée est d'améliorer la stratégie d'apprentissage en effectuant simultanément la partition floue et la génération des règles. Le principe de l'algorithme d'apprentissage proposé consiste en améliorations successives du modèle en ajoutant à la fois de nouveaux symboles et de nouvelles règles jusqu'à trouver un modèle suffisamment proche du système réel. Cette méthode a été testée sur plusieurs exemples d'approximation de fonctions, de modélisation de systèmes dynamiques et de prédiction de séries temporelles.
48

Kermorvant, Christopher. "Apprentissage de modèles à états finis stochastiques pour les séquences". Saint-Etienne, 2003. http://www.theses.fr/2003STET4002.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le travail présenté dans cette thèse concerne l'apprentissage de modèles à états finis stochastiques pour la modélisation de séquences. Ces modèles combinent un aspect structurel et un aspect probabiliste que nous avons tous deux cherché à développer à travers une extension à la fois des modèles et des algorithmes d'apprentissage. Nous avons voulu d'une part développer les aspects statistiques des algorithmes d'inférence des automates à états finis stochastiques et en particulier les adapter aux cas pratiques. Pour ce faire, nous avons développé un nouvel algorithme d'inférence basé sur un test statistique de comparaison d'échantillons. Ce cadre permet l'utilisation de techniques statistiques adaptées à la taille des échantillons d'apprentissage. Nous avons voulu d'autre part développer l'aspect syntaxique des automates à états finis et leur capacité à modéliser la structure sous-jacente des séquences. Dans ce but, nous avons défini les automates typés, une extension des automates à états finis classiques permettant d'introduire dans les automates des connaissances a priori sur les séquences. D'un point de vue théorique, nous avons étudié l'espace de recherche associé au problème de l'inférence de ces automates. Nous avons proposé une adaptation des algorithmes d'inférence existant au cas des automates typés. D'un point de vue pratique, nous avons appliqué un algorithme d'inférence d'automates typés stochastiques à un problème de modélisation de la langue en reconnaissance de la parole. Les modèles obtenus rivalisent avec les modèles à l'état l'art (n-grammes) sur un corpus classique du domaine
This thesis deals with learning stochastic finite state automata for sequence modelling. We aimed at developing both their structural and probabilistic aspects, through the extension of the models and the design of new learning algorithms. On the one hand, we have developed statistical aspects of stochastic finite state automaton learning algorithms in order to deal with practical cases. We have designed a new learning algorithm based on statistical tests for sample comparison. This framework allows to take into account the size of the learning set in the inference process. On the other hand, we have developed syntactic aspects of finite state automaton and their ability to model the underlying structure of sequences. We have defined typed automata, an extension of classical finite state automata, which permits the introduction of a priori knowledge in the models. From a theoretical point of view, we have studied the search space for the typed automata. We have proposed a modified version of classical automata learning algorithms in the framework of typed automata. Finally, we have applied these models and algorithms to a language modelling task. The obtained automata were competitive with state of the art models on a classical corpus
49

Zaidenberg, Sofia. "Apprentissage par renforcement de modèles de contexte pour l'informatique ambiante". Grenoble INPG, 2009. http://www.theses.fr/2009INPG0088.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse étudie l'acquisition automatique par apprentissage d'un modèle de contexte pour un utilisateur dans un environnement ubiquitaire. Dans un tel environnement, les dispositifs peuvent communiquer et coopérer afin de former un espace informatique cohérent. Certains appareils ont des capacités de perception, utilisées par l'environnement pour détecter la situation - le contexte - de l'utilisateur. D'autres appareils sont capables d'exécuter des actions. La problématique que nous nous sommes posée est de déterminer les associations optimales pour un utilisateur donné entre les situations et les actions. L'apprentissage apparaît comme une bonne approche car il permet de personnaliser l'environnement sans spécification explicite de la part de l'usager. Un apprentissage à vie permet, par ailleurs, de toujours s'adapter aux modifications du monde et des préférences utilisateur. L'apprentissage par renforcement est un paradigme d'apprentissage qui peut être une solution à notre problème, à condition de l'adapter aux contraintes liées à notre cadre d'application
This thesis studies the automatic acquisition by machine learning of a context model for a user in a ubiquitous environment. In such an environment, devices can communicate and cooperate in order to create a consistent computerized space. Some devices possess perceptual capabilities. The environment uses them to detect the user's situation his context. Other devices are able to execute actions. Our problematics consists in determining the optimal associations, for a given user, between situations and actions. Machine learning seems to be a sound approach since it results in a customized environment without requiring an explicit specification from the user. A life long learning lets the environment adapt itself continuously to world changes and user preferences changes. Reinforcement learning can be a solution to this problem, as long as it is adapted to some particular constraints due to our application setting
50

Montalbano, Pierre. "Contraintes linéaires et apprentissage sans conflit pour les modèles graphiques". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30340.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les modèles graphiques définissent une famille de formalismes et d'algorithmes utilisés en particulier pour le raisonnement logique et probabiliste, dans des domaines aussi variés que l'analyse d'image ou le traitement du langage naturel. Ils sont capables d'être appris à partir de données, donnant une information probabiliste qui peut ensuite être combinée avec des informations logiques. Le but de la thèse est d'améliorer l'efficacité des algorithmes de raisonnement sur ces modèles croisant probabilités et logique en généralisant un mécanisme fondamental des outils de raisonnement purement logique parmi les plus efficaces (solveurs SAT) à ce cas hybride mêlant probabilités et logique: l'apprentissage dirigé par les conflits. Les travaux s'appuient sur le concept de dualité en programmation linéaire et conduisent à un apprentissage sans conflit de contraintes linéaires bénéficiant d'un traitement particulier efficace issu de la résolution d'un problème de sac à dos
Graphical models define a family of formalisms and algorithms used in particular for logical and probabilistic reasoning, in fields as varied as image analysis or natural language processing. They are capable of being learned from data, giving probabilistic information that can then be combined with logical information. The goal of the thesis is to improve the efficiency of reasoning algorithms on these models crossing probabilities and logic by generalizing a fundamental mechanism of the most efficient purely logical reasoning tools (SAT solvers) to this hybrid case mixing probabilities and logic: conflict-based learning. The work is based on the concept of duality in linear programming and our learning mechanism is conflict-free, producing linear constraints efficiently solved using a knapsack formulation

Pasar a la bibliografía