Siga este enlace para ver otros tipos de publicaciones sobre el tema: Apprentissge automatique.

Tesis sobre el tema "Apprentissge automatique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Apprentissge automatique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Chouchene, Sarah. "Applications de l’intelligence artificielle à l'étude de la turbulence plasma en fusion nucléaire et aux plasmas d’arc en régime DC". Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0265.

Texto completo
Resumen
Le travail présenté dans ce mémoire a pour but d'explorer l'apport potentiel de méthodes d'analyse d'images par intelligence artificielle (IA) pour l'analyse de vidéos issues de différentes recherches en plasmas. Deux domaines sont étudiés : la turbulence dans des plasmas de fusion nucléaire, et la dynamique d'arcs dipolaires en régime continu haute tension (HTDC).Cette thèse explore principalement l'application de l'IA pour détecter et suivre les structures turbulentes macroscopiques visibles sous la forme de filaments de plasma dans le bord des réacteurs à fusion. Pour cela, des modèles d'IA sont appliqués à des données d'imagerie issues du tokamak COMPASS et capturées par une caméra ultra-rapide filmant jusqu'à un 1 million d'images par seconde afin de résoudre la dynamique des filaments. Différents modèles d'apprentissage supervisé sont employés, après entraînement sur des ensembles de données étiquetées pour améliorer la précision de la détection, dans le but d'étudier le mouvement des filaments de plasma et leurs interactions mutuelles. Les méthodes présentées dans ce mémoire permettent d'atteindre une précision de détection de 99 %, et de reconnaître automatiquement différents types d'interactions mutuelles conduisant à des processus de coalescence, d'éclatement, ou de modification de trajectoires des filaments. Des comparaisons réalisées avec des méthodes d'analyse conventionnelles, telles que la détection par segmentation et le suivi avec un filtre de Kalman, démontrent que les méthodes d'IA testées offrent des gains substantiels en termes de précision et de vitesse d'analyse, tout en réduisant les biais liés à l'utilisateur.Dans le domaine des arcs dipolaires, une technique d'apprentissage non supervisé est utilisée afin de détecter des bulles de métal liquide se formant à la surface des électrodes, en régime HTDC. Les modèles non supervisés, plus légers et fonctionnant sans données étiquetées, sont efficaces pour identifier des événements pouvant être apparentés à des anomalies. Les résultats présentés dans ce mémoire contribuent à une meilleure compréhension du bruit d'arc, et ouvrent la voie à une analyse en temps réel des données pour la mise en place de systèmes de protection.Ces recherches démontrent la pertinence de développer davantage les méthodes d'IA pour faire progresser notre compréhension de la dynamique complexe des plasma de fusion nucléaire, et de celles des plasmas d'arc. En réduisant ou en supprimant les biais d'analyse liés à l'intervention humaine, ces méthodes peuvent également contribuer à améliorer les comparaisons entre des données issues de différentes expériences ou simulations. Les gains en vitesse d'analyse ne sont pas toujours très significatifs, mais des marges d'optimisation existent qui ouvrent des perspectives intéressantes pour améliorer le contrôle des plasmas, qu'ils soient froids ou de fusion nucléaire
The aim of the work presented in this thesis is to explore the potential contribution of artificial intelligence (AI) image analysis methods to the analysis of videos from various plasma research domains. Two areas are studied: turbulence in nuclear fusion plasmas, and the dynamics of dipolar arcs in the high-voltage DC regime.This thesis mainly explores the application of AI to detect and track macroscopic turbulent structures visible in the form of plasma filaments at the edge of fusion reactors. To this end, AI models are applied to imaging data from the COMPASS tokamak captured by an ultra-fast camera filming up to 1 million frames per second in order to resolve the dynamics of the filaments. Different supervised learning models are employed, after training on labelled datasets to improve detection accuracy, to study the motion of plasma filaments and their interactions with each other. The methods presented in this thesis achieve a detection accuracy of 99 %, and automatically recognise different types of mutual interactions leading to coalescence, splitting or changes in filament trajectories. Comparisons with conventional analysis methods such as detection by segmentation and Kalman filter tracking show that the AI methods tested offer substantial gains in terms of accuracy and analysis speed, while reducing user bias.In the field of dipolar arcs, an unsupervised learning technique is used to detect bubbles of liquid metal forming on the surface of electrodes under high-voltage direct current (HVDC) conditions. The unsupervised models, which are lighter and operate without labelled data, are effective in identifying events that could be similar to anomalies. The results obtained contribute to a better understanding of arc noise, and pave the way for real-time data analysis for the implementation of protection systems.This research demonstrates the relevance of further developing AI methods to advance our understanding of the complex dynamics of nuclear fusion plasmas and arc plasmas. By reducing or eliminating analysis biases linked to human intervention, these methods can also help to improve comparisons between data from different experiments or simulations. The gains in analysis speed are not always very significant, but there are margins for optimisation that open up interesting prospects for improving the control of plasmas, whether cold or nuclear fusion
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Tommasi, Marc. "Structures arborescentes et apprentissage automatique". Habilitation à diriger des recherches, Université Charles de Gaulle - Lille III, 2006. http://tel.archives-ouvertes.fr/tel-00117063.

Texto completo
Resumen
Le programme de recherches présenté dans cette synthèse s'inscrit dans la double problématique de l'étude des langages d'arbres et de l'apprentissage automatique à partir de données arborescentes.
À la base de ce travail se trouve la question de l'accès et de la manipulation automatique d'informations au format XML au sein d'un réseau d'applications réparties dans internet. La réalisation de ces applications est toujours du ressort de programmeurs spécialistes d'XML et reste hors de portée de l'utilisateur final. De plus, les développements récents d'internet poursuivent l'objectif d'automatiser les communications entre applications s'échangeant des flux de données XML. Le recours à des techniques d'apprentissage automatique est une réponse possible à cette situation.
Nous considèrons que les informations sont décrites dans un langage XML, et dans la perspective de ce mémoire, embarquées dans des données structurées sous forme arborescente. Les applications sont basées alors sur des opérations élémentaires que sont l'interrogation ou les requêtes dans ces documents arborescents ou encore la transformation de tels documents.
Nous abordons alors la question sous l'angle de la réalisation automatique de programmes d'annotation d'arbres, permettant de dériver des procédures de transformation ou d'exécution de requêtes. Le mémoire décrit les contributions apportées pour la manipulation et l'apprentissage d'ensembles d'arbres d'arité non bornée (comme le sont les arbres XML), et l'annotation par des méthodes de classification supervisée ou d'inférence statistique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Pintado, Michel. "Apprentissage et demonstration automatique des theoremes". Paris 6, 1994. http://www.theses.fr/1994PA066670.

Texto completo
Resumen
La demonstration automatique de theoremes peut etre consideree comme une activite de resolution de problemes: atteindre un etat final e#f (la propriete a demontrer) a partir d'un etat initial e#i (les hypotheses du theoreme a demontrer). Les deux principales strategies utilisees en resolution de problemes correspondent respectivement a un raisonnement par synthese (raisonnement en avant) et a un raisonnement par analyse (raisonnement a partir du but). Nous avons realise un systeme (ubl) qui alterne ces deux strategies au cours d'une meme resolution. Les difficultes se situent dans les choix des theoremes a appliquer ou dans les choix des sous-buts a poser. Faire de bons choix est crucial dans des domaines ou il existe un grand nombre d'applications differentes des operateurs a chaque etat. C'est le cas d'un des domaines etudies dans ubl: la geometrie elementaire. Afin d'ameliorer ses capacites de choix, notre systeme apprend deux types de connaissances en analysant ses propres solutions. Il construit de nouveaux theoremes correspondant a des situations prototypiques, ce qui lui permettra de deduire plus rapidement des faits importants dans d'autres exercices. Il memorise des methodes de resolution adaptees a un but donne. Celles-ci consistent a proposer un ensemble de sous-buts qui se sont averes utiles pour la resolution de l'exercice analyse. L'utilisateur peut aider le systeme lors de la resolution, les methodes alors apprises permettent au systeme de resoudre des exercices qu'il ne savait pas traiter avant apprentissage
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Natowicz, René. "Apprentissage symbolique automatique en reconnaissance d'images". Paris 11, 1987. http://www.theses.fr/1987PA112301.

Texto completo
Resumen
Le travail présenté traite de l'application des techniques d'apprentissage symbolique automatique à la reconnaissance d'images. Le but est d'obtenir de façon automatique des fonctions de reconnaissance d'objets présents sur des images, en généralisant un ensemble d'images données en exemple. Le processus de généralisation est conduit par niveaux de détails croissants en prenant en compte la forme grossière d'un objet, puis ses détails si nécessaire. Un lien est établi entre apprentissage symbolique automatique et reconnaissance à l'aide d'un réseau neuronique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Natowicz, René. "Apprentissage symbolique automatique en reconnaissance d'images". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608385b.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Candillier, Laurent Gilleron Rémi. "Apprentissage automatique de profils de lecteurs". [S.l.] : [s.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/memoires/A2001-6.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Bayoudh, Sabri. "Apprentissage par proportion analogique". Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/bayoudh.pdf.

Texto completo
Resumen
Les travaux présentés dans cette thèse s’inscrivent dans le cadre du raisonnement par analogie. Nous nous intéressons à la proportion analogique (A est à B ce que C est à D) et nous décrivons son utilisation et surtout son apport en apprentissage artificiel. Nous abordons tout d’abord le cas des proportions analogiques exactes. Ensuite, nous nous attachons plus particulièrement à définir une nouvelle notion, la dissemblance analogique qui mesure si quatre objets sont éloignés d’être en proportion analogique, et à l’appliquer en particulier à des séquences. Après avoir défini la proportion analogique, la dissemblance analogique et la résolution approchée d’équations analogiques, nous décrivons deux algorithmes qui rendent opérationnels ces notions d’apprentissage et de résolution pour des objets numériques ou symboliques et pour des séquences de ces objets. Nous montrons ensuite leur efficacité au travers de deux cas pratiques : le premier est l’apprentissage d’une règle de classification par proportion analogique pour des objets décrits par des attributs binaires et nominaux ; le second montre comment la génération de nouveaux exemples (par résolution approchée d’équations analogiques) peut aider un système de reconnaissance de caractères manuscrits à s’adapter très rapidement à un nouveau scripteur
The work presented in this thesis lies within the scope of reasoning by analogy. We are interested in the analogical proportion (A is to B as C is to D) and we describe its use and especially its contribution in machine learning. Firstly, we are interested in defining exact analogical proportions. Then, we tackle the problem of defining a new concept, the analogical dissimilarity which is a measure of how close four objects are from being in analogical proportion, including the case where the objects are sequences. After having defined the analogical proportion, the analogical dissimilarity and the approximate resolution of analogical equations, we describe two algorithms that make these concepts operational for numerical or symbolic objects and sequences of these objects. We show their use through two practical cases : the first is a problem of learning a classification rule on benchmarks of binary and nominal data ; the second shows how the generation of new sequences by solving analogical equations enables a handwritten character recognition system to rapidly be adapted to a new writer
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Suchier, Henri-Maxime. "Nouvelles contributions du boosting en apprentissage automatique". Phd thesis, Université Jean Monnet - Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00379539.

Texto completo
Resumen
L'apprentissage automatique vise la production d'une hypothèse modélisant un concept à partir d'exemples, dans le but notamment de prédire si de nouvelles observations relèvent ou non de ce concept. Parmi les algorithmes d'apprentissage, les méthodes ensemblistes combinent des hypothèses de base (dites ``faibles'') en une hypothèse globale plus performante.

Le boosting, et son algorithme AdaBoost, est une méthode ensembliste très étudiée depuis plusieurs années : ses performances expérimentales remarquables reposent sur des fondements théoriques rigoureux. Il construit de manière adaptative et itérative des hypothèses de base en focalisant l'apprentissage, à chaque nouvelle itération, sur les exemples qui ont été difficiles à apprendre lors des itérations précédentes. Cependant, AdaBoost est relativement inadapté aux données du monde réel. Dans cette thèse, nous nous concentrons en particulier sur les données bruitées, et sur les données hétérogènes.

Dans le cas des données bruitées, non seulement la méthode peut devenir très lente, mais surtout, AdaBoost apprend par coeur les données, et le pouvoir prédictif des hypothèses globales générées, s'en trouve extrêmement dégradé. Nous nous sommes donc intéressés à une adaptation du boosting pour traiter les données bruitées. Notre solution exploite l'information provenant d'un oracle de confiance permettant d'annihiler les effets dramatiques du bruit. Nous montrons que notre nouvel algorithme conserve les propriétés théoriques du boosting standard. Nous mettons en pratique cette nouvelle méthode, d'une part sur des données numériques, et d'autre part, de manière plus originale, sur des données textuelles.

Dans le cas des données hétérogènes, aucune adaptation du boosting n'a été proposée jusqu'à présent. Pourtant, ces données, caractérisées par des attributs multiples mais de natures différentes (comme des images, du son, du texte, etc), sont extrêmement fréquentes sur le web, par exemple. Nous avons donc développé un nouvel algorithme de boosting permettant de les utiliser. Plutôt que de combiner des hypothèses boostées indépendamment, nous construisons un nouveau schéma de boosting permettant de faire collaborer durant l'apprentissage des algorithmes spécialisés sur chaque type d'attribut. Nous prouvons que les décroissances exponentielles des erreurs sont toujours assurées par ce nouveau modèle, aussi bien d'un point de vue théorique qu'expérimental.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Paumard, Marie-Morgane. "Résolution automatique de puzzles par apprentissage profond". Thesis, CY Cergy Paris Université, 2020. http://www.theses.fr/2020CYUN1067.

Texto completo
Resumen
L’objectif de cette thèse est de développer des méthodes sémantiques de réassemblage dans le cadre compliqué des collections patrimoniales, où certains blocs sont érodés ou manquants.Le remontage de vestiges archéologiques est une tâche importante pour les sciences du patrimoine : il permet d’améliorer la compréhension et la conservation des vestiges et artefacts anciens. Certains ensembles de fragments ne peuvent être réassemblés grâce aux techniques utilisant les informations de contour et les continuités visuelles. Il est alors nécessaire d’extraire les informations sémantiques des fragments et de les interpréter. Ces tâches peuvent être accomplies automatiquement grâce aux techniques d’apprentissage profond couplées à un solveur, c’est-à-dire un algorithme de prise de décision sous contraintes.Cette thèse propose deux méthodes de réassemblage sémantique pour fragments 2D avec érosion, ainsi qu’un jeu de données et des métriques d’évaluation.La première méthode, Deepzzle, propose un réseau de neurones auquel succède un solveur. Le réseau de neurones est composé de deux réseaux convolutionnels siamois entraînés à prédire la position relative de deux fragments : il s'agit d'une classification à 9 classes. Le solveur utilise l’algorithme de Dijkstra pour maximiser la probabilité jointe. Deepzzle peut résoudre le cas de fragments manquants et surnuméraires, est capable de traiter une quinzaine de fragments par puzzle, et présente des performances supérieures à l’état de l’art de 25%.La deuxième méthode, Alphazzle, s’inspire d’AlphaZero et de recherche arborescente Monte Carlo (MCTS) à un joueur. Il s’agit d’une méthode itérative d’apprentissage profond par renforcement : à chaque étape, on place un fragment sur le réassemblage en cours. Deux réseaux de neurones guident le MCTS : un prédicteur d’action, qui utilise le fragment et le réassemblage en cours pour proposer une stratégie, et un évaluateur, qui est entraîné à prédire la qualité du résultat futur à partir du réassemblage en cours. Alphazzle prend en compte les relations entre tous les fragments et s’adapte à des puzzles de taille supérieure à ceux résolus par Deepzzle. Par ailleurs, Alphazzle se place dans le cadre patrimonial : en fin de réassemblage, le MCTS n’accède pas à la récompense, contrairement à AlphaZero. En effet, la récompense, qui indique si un puzzle est bien résolu ou non, ne peut être qu’estimée par l’algorithme, car seul un conservateur peut être certain de la qualité d’un réassemblage
The objective of this thesis is to develop semantic methods of reassembly in the complicated framework of heritage collections, where some blocks are eroded or missing.The reassembly of archaeological remains is an important task for heritage sciences: it allows to improve the understanding and conservation of ancient vestiges and artifacts. However, some sets of fragments cannot be reassembled with techniques using contour information or visual continuities. It is then necessary to extract semantic information from the fragments and to interpret them. These tasks can be performed automatically thanks to deep learning techniques coupled with a solver, i.e., a constrained decision making algorithm.This thesis proposes two semantic reassembly methods for 2D fragments with erosion and a new dataset and evaluation metrics.The first method, Deepzzle, proposes a neural network followed by a solver. The neural network is composed of two Siamese convolutional networks trained to predict the relative position of two fragments: it is a 9-class classification. The solver uses Dijkstra's algorithm to maximize the joint probability. Deepzzle can address the case of missing and supernumerary fragments, is capable of processing about 15 fragments per puzzle, and has a performance that is 25% better than the state of the art.The second method, Alphazzle, is based on AlphaZero and single-player Monte Carlo Tree Search (MCTS). It is an iterative method that uses deep reinforcement learning: at each step, a fragment is placed on the current reassembly. Two neural networks guide MCTS: an action predictor, which uses the fragment and the current reassembly to propose a strategy, and an evaluator, which is trained to predict the quality of the future result from the current reassembly. Alphazzle takes into account the relationships between all fragments and adapts to puzzles larger than those solved by Deepzzle. Moreover, Alphazzle is compatible with constraints imposed by a heritage framework: at the end of reassembly, MCTS does not access the reward, unlike AlphaZero. Indeed, the reward, which indicates if a puzzle is well solved or not, can only be estimated by the algorithm, because only a conservator can be sure of the quality of a reassembly
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Jalam, Radwan. "Apprentissage automatique et catégorisation de textes multilingues". Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/jalam_r.

Texto completo
Resumen
Notre travail s'intéresse à l'application de méthodes issues de l'apprentissage automatique à la catégorisation de textes multilingues. Il comporte deux parties. Une première partie donne une présentation générale de la catégorisation de textes : Définitions, objectifs généraux et domaines d'application ; Adaptation des algorithmes d'apprentissage aux spécificités des textes ; La méthode de sélection de termes multivariée ; Le codage en n-grammes et les mots ; Les méthodes d'apprentissage et la mesure de leurs performances ; les texts réalisés pour comparer les algorithmes d'apprentissage sur les textes. La deuxième partie s'intéresse à l'apprentissage de textes multilingues en comparant deux chaînes possibles : Chaîne 1 : reconnaissance de la langue, puis utilisation de règles de classement construites pour chaque langue ; il faut alors avoir construit un modèle adapté à chacune des langues. Chaîne 2 : utilisation de la traduction automatique dans le processus de catégorisation ; cette solution permet d'utiliser un seul ensemble de règles de classement. Ici, il y a deux options : 1. Construire un modèle unique sur l'ensemble d'apprentissage d'une langue donnée ; ensuite, pour classer un nouveau texte, (I) reconnaissance de sa langue, (II) traduction de ce texte vers la langue d'apprentissage, (III) application du modèle de prédiction sur le texte traduit ; ici la phase de traduction n'intervient que dans la phase de classement. 2. Faire intervenir la traduction automatique dès la phase d'apprentissage : à partir d'un ensemble étiqueté de textes en différentes langues, traduction automatique dès la phase d'apprentissage : à partir d'un enemble étiqueté de textes en différentes langues, traduction automatique de tous ces textes vers une langue cible et apprentissage sur cet ensemble de textes traduits ; ensuite, pour classer un nouveau texte, la procédure est la même. Nous testons nos algorithmes sur des corpus multilingues.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Sani, Amir. "Apprentissage automatique pour la prise de décisions". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10038/document.

Texto completo
Resumen
La prise de décision stratégique concernant des ressources de valeur devrait tenir compte du degré d'aversion au risque. D'ailleurs, de nombreux domaines d'application mettent le risque au cœur de la prise de décision. Toutefois, ce n'est pas le cas de l'apprentissage automatique. Ainsi, il semble essentiel de devoir fournir des indicateurs et des algorithmes dotant l'apprentissage automatique de la possibilité de prendre en considération le risque dans la prise de décision. En particulier, nous souhaiterions pouvoir estimer ce dernier sur de courtes séquences dépendantes générées à partir de la classe la plus générale possible de processus stochastiques en utilisant des outils théoriques d'inférence statistique et d'aversion au risque dans la prise de décision séquentielle. Cette thèse étudie ces deux problèmes en fournissant des méthodes algorithmiques prenant en considération le risque dans le cadre de la prise de décision en apprentissage automatique. Un algorithme avec des performances de pointe est proposé pour une estimation précise des statistiques de risque avec la classe la plus générale de processus ergodiques et stochastiques. De plus, la notion d'aversion au risque est introduite dans la prise de décision séquentielle (apprentissage en ligne) à la fois dans les jeux de bandits stochastiques et dans l'apprentissage séquentiel antagoniste
Strategic decision-making over valuable resources should consider risk-averse objectives. Many practical areas of application consider risk as central to decision-making. However, machine learning does not. As a result, research should provide insights and algorithms that endow machine learning with the ability to consider decision-theoretic risk. In particular, in estimating decision-theoretic risk on short dependent sequences generated from the most general possible class of processes for statistical inference and through decision-theoretic risk objectives in sequential decision-making. This thesis studies these two problems to provide principled algorithmic methods for considering decision-theoretic risk in machine learning. An algorithm with state-of-the-art performance is introduced for accurate estimation of risk statistics on the most general class of stationary--ergodic processes and risk-averse objectives are introduced in sequential decision-making (online learning) in both the stochastic multi-arm bandit setting and the adversarial full-information setting
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Jalam, Radwan Chauchat Jean-Hugues. "Apprentissage automatique et catégorisation de textes multilingues". Lyon : Université Lumière Lyon 2, 2003. http://demeter.univ-lyon2.fr/sdx/theses/lyon2/2003/jalam_r.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Garlet, Milani Luís Felipe. "Autotuning assisté par apprentissage automatique de tâches OpenMP". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM022.

Texto completo
Resumen
Les architectures informatiques modernes sont très complexes, nécessitant un grand effort de programmation pour obtenir toute la performance que le matériel est capable de fournir. En effet, alors que les développeurs connaissent les optimisations potentielles, la seule façon possible de dire laquelle est le plus rapide pour une plate-forme est de le tester. En outre, les nombreuses différences entre deux plates-formes informatiques, dans le nombre de cœurs, les tailles de cache, l'interconnexion, les fréquences de processeur et de mémoire, etc, rendent très difficile la bonne exécution du même code sur plusieurs systèmes. Pour extraire le plus de performances, il est souvent nécessaire d'affiner le code pour chaque système. Par conséquent, les développeurs adoptent l'autotuning pour atteindre un certain degré de performance portable. De cette façon, les optimisations potentielles peuvent être spécifiées une seule fois et, après avoir testé chaque possibilité sur une plate-forme, obtenir une version haute performance du code pour cette plate-forme particulière. Toutefois, cette technique nécessite de régler chaque application pour chaque plate-forme quelle cible. Non seulement cela prend du temps, mais l'autotuning et l'exécution réelle de l'application diffèrent. Des différences dans les données peuvent déclencher un comportement différent, ou il peut y avoir différentes interactions entre les fils dans l'autotuning et l'exécution réelle. Cela peut conduire à des décisions sous-optimales si l'autotuner choisit une version qui est optimale pour la formation, mais pas pour l'exécution réelle de l'application. Nous proposons l'utilisation d'autotuning pour sélectionner les versions du code pertinentes pour une gamme de plates-formes et, lors de l'exécution de l'application, le système de temps d'exécution identifie la meilleure version à utiliser à l'aide de l'une des trois politiques que nous proposons: Mean, Upper Confidence Bound et Gradient Bandit. De cette façon, l'effort de formation est diminué et il permet l'utilisation du même ensemble de versions avec différentes plates-formes sans sacrifier les performances. Nous concluons que les politiques proposées peuvent identifier la version à utiliser sans subir de pertes de performance substantielles. De plus, lorsque l'utilisateur ne connaît pas suffisamment de détails de l'application pour configurer de manière optimale la politique d'exploration puis de validation utilisée par d'autres systèmes de temps d'exécution, la politique UCB plus adaptable peut être utilisée à sa place
Modern computer architectures are highly complex, requiring great programming effort to obtain all the performance the hardware is capable of delivering. Indeed, while developers know potential optimizations, the only feasible way to tell which of them is faster for some platform is to test it. Furthermore, the many differences between two computer platforms, in the number of cores, cache sizes, interconnect, processor and memory frequencies, etc, makes it very challenging to have the same code perform well over several systems. To extract the most performance, it is often necessary to fine-tune the code for each system. Consequently, developers adopt autotuning to achieve some degree of portable performance. This way, the potential optimizations can be specified once, and, after testing each possibility on a platform, obtain a high-performance version of the code for that particular platform. However, this technique requires tuning each application for each platform it targets. This is not only time consuming but the autotuning and the real execution of the application differ. Differences in the data may trigger different behaviour, or there may be different interactions between the threads in the autotuning and the actual execution. This can lead to suboptimal decisions if the autotuner chooses a version that is optimal for the training but not for the real execution of the application. We propose the use of autotuning for selecting versions of the code relevant for a range of platforms and, during the execution of the application, the runtime system identifies the best version to use using one of three policies we propose: Mean, Upper Confidence Bound, and Gradient Bandit. This way, training effort is decreased and it enables the use of the same set of versions with different platforms without sacrificing performance. We conclude that the proposed policies can identify the version to use without incurring substantial performance losses. Furthermore, when the user does not know enough details of the application to configure optimally the explore-then-commit policy usedy by other runtime systems, the more adaptable UCB policy can be used in its place
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Do, Quoc khanh. "Apprentissage discriminant des modèles continus en traduction automatique". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS071/document.

Texto completo
Resumen
Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses
Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Fradet, Nathan. "Apprentissage automatique pour la modélisation de musique symbolique". Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS037.pdf.

Texto completo
Resumen
La modélisation musicale symbolique représente les tâches effectuées par les modèles d'apprentissage automatique avec la musicale symbolique, parmi lesquelles figurent la génération de musique ou la récupération d'informations musicales. La modélisation musicale symbolique est souvent effectuée avec des modèles séquentiels qui traitent les données sous forme de séquences d'éléments discrets appelés tokens. Cette thèse étudie comment la musique symbolique peut être sérialisée, et quels sont les impacts des différentes manières de le faire, sur les performances et l'efficacité des modèles. Les défis actuels incluent le manque de logiciel pour effectuer cette étape, la faible efficacité du modèle et les tokens inexpressifs. Nous relevons ces défis en : 1) développant une bibliothèque logicielle complète, flexible et facile à utiliser permettant de tokeniser la musique symbolique ; 2) analyser l'impact de diverses stratégies de tokenisation sur les performances des modèles ; 3) augmenter les performances et l'efficacité des modèles en exploitant de vastes vocabulaires musicaux grâce à l'utilisation du codage par paires d'octets ; 4) construire le premier modèle à grande échelle de génération de musique symbolique
Symbolic music modeling (SMM) represents the tasks performed by Deep Learning models on the symbolic music modality, among which are music generation or music information retrieval. SMM is often handled with sequential models that process data as sequences of discrete elements called tokens. This thesis study how symbolic music can be tokenized, and what are the impacts of the different ways to do it impact models performances and efficiency. Current challenges include the lack of software to perform this step, poor model efficiency and inexpressive tokens. We address these challenges by: 1) developing a complete, flexible and easy to use software library allowing to tokenize symbolic music; 2) analyzing the impact of various tokenization strategies on model performances; 3) increasing the performance and efficiency of models by leveraging large music vocabularies with the use of byte pair encoding; 4) building the first large-scale model for symbolic music generation
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Goix, Nicolas. "Apprentissage automatique et extrêmes pour la détection d'anomalies". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0072/document.

Texto completo
Resumen
La détection d'anomalies est tout d'abord une étape utile de pré-traitement des données pour entraîner un algorithme d'apprentissage statistique. C'est aussi une composante importante d'une grande variété d'applications concrètes, allant de la finance, de l'assurance à la biologie computationnelle en passant par la santé, les télécommunications ou les sciences environnementales. La détection d'anomalies est aussi de plus en plus utile au monde contemporain, où il est nécessaire de surveiller et de diagnostiquer un nombre croissant de systèmes autonomes. La recherche en détection d'anomalies inclut la création d'algorithmes efficaces accompagnée d'une étude théorique, mais pose aussi la question de l'évaluation de tels algorithmes, particulièrement lorsque l'on ne dispose pas de données labellisées -- comme dans une multitude de contextes industriels. En d'autres termes, l'élaboration du modèle et son étude théorique, mais aussi la sélection du modèle. Dans cette thèse, nous abordons ces deux aspects. Tout d'abord, nous introduisons un critère alternatif au critère masse-volume existant, pour mesurer les performances d'une fonction de score. Puis nous nous intéressons aux régions extrêmes, qui sont d'un intérêt particulier en détection d'anomalies, pour diminuer le taux de fausse alarme. Enfin, nous proposons deux méthodes heuristiques, l'une pour évaluer les performances d'algorithmes de détection d'anomalies en grande dimension, l'autre pour étendre l'usage des forets aléatoires à la classification à une classe
Anomaly detection is not only a useful preprocessing step for training machine learning algorithms. It is also a crucial component of many real-world applications, from various fields like finance, insurance, telecommunication, computational biology, health or environmental sciences. Anomaly detection is also more and more relevant in the modern world, as an increasing number of autonomous systems need to be monitored and diagnosed. Important research areas in anomaly detection include the design of efficient algorithms and their theoretical study but also the evaluation of such algorithms, in particular when no labeled data is available -- as in lots of industrial setups. In other words, model design and study, and model selection. In this thesis, we focus on both of these aspects. We first propose a criterion for measuring the performance of any anomaly detection algorithm. Then we focus on extreme regions, which are of particular interest in anomaly detection, to obtain lower false alarm rates. Eventually, two heuristic methods are proposed, the first one to evaluate anomaly detection algorithms in the case of high dimensional data, the other to extend the use of random forests to the one-class setting
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Goix, Nicolas. "Apprentissage automatique et extrêmes pour la détection d'anomalies". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0072.

Texto completo
Resumen
La détection d'anomalies est tout d'abord une étape utile de pré-traitement des données pour entraîner un algorithme d'apprentissage statistique. C'est aussi une composante importante d'une grande variété d'applications concrètes, allant de la finance, de l'assurance à la biologie computationnelle en passant par la santé, les télécommunications ou les sciences environnementales. La détection d'anomalies est aussi de plus en plus utile au monde contemporain, où il est nécessaire de surveiller et de diagnostiquer un nombre croissant de systèmes autonomes. La recherche en détection d'anomalies inclut la création d'algorithmes efficaces accompagnée d'une étude théorique, mais pose aussi la question de l'évaluation de tels algorithmes, particulièrement lorsque l'on ne dispose pas de données labellisées -- comme dans une multitude de contextes industriels. En d'autres termes, l'élaboration du modèle et son étude théorique, mais aussi la sélection du modèle. Dans cette thèse, nous abordons ces deux aspects. Tout d'abord, nous introduisons un critère alternatif au critère masse-volume existant, pour mesurer les performances d'une fonction de score. Puis nous nous intéressons aux régions extrêmes, qui sont d'un intérêt particulier en détection d'anomalies, pour diminuer le taux de fausse alarme. Enfin, nous proposons deux méthodes heuristiques, l'une pour évaluer les performances d'algorithmes de détection d'anomalies en grande dimension, l'autre pour étendre l'usage des forets aléatoires à la classification à une classe
Anomaly detection is not only a useful preprocessing step for training machine learning algorithms. It is also a crucial component of many real-world applications, from various fields like finance, insurance, telecommunication, computational biology, health or environmental sciences. Anomaly detection is also more and more relevant in the modern world, as an increasing number of autonomous systems need to be monitored and diagnosed. Important research areas in anomaly detection include the design of efficient algorithms and their theoretical study but also the evaluation of such algorithms, in particular when no labeled data is available -- as in lots of industrial setups. In other words, model design and study, and model selection. In this thesis, we focus on both of these aspects. We first propose a criterion for measuring the performance of any anomaly detection algorithm. Then we focus on extreme regions, which are of particular interest in anomaly detection, to obtain lower false alarm rates. Eventually, two heuristic methods are proposed, the first one to evaluate anomaly detection algorithms in the case of high dimensional data, the other to extend the use of random forests to the one-class setting
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Guérif, Sébastien. "Réduction de dimension en apprentissage numérique non supervisé". Paris 13, 2006. http://www.theses.fr/2006PA132032.

Texto completo
Resumen
La classification automatique - clustering - est une étape importante du processus d'extraction de connaissances à partir de données (ECD). Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements - clusters - qui partagent des caractéristiques similaires. La complexité de cette tache s'est fortement accrue ces deux dernières décennies lorsque les masses de données disponibles ont vu leur volume exploser. En effet, le nombre d'objets présents dans les bases de données a fortement augmente mais également la taille de leur description. L'augmentation de la dimension des données a des conséquences non négligeables sur les traitements classiquement mis en œuvre: outre l'augmentation naturelle des temps de traitements, les approches classiques s'avèrent parfois inadaptées en présence de bruit ou de redondance. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée. Différentes approches de sélection ou de pondération de variables sont proposées pour traiter les problèmes lies a la présence d'attributs redondants ou d'attributs fortement bruites : Nous proposons d'abord l'algorithme p-SOM qui limite l‘effet de la présence d'attributs redondants en calculant une pondération des attributs à partir d'une classification simultanée des objets et des attributs. Nous présentons ensuite une approche intégrée - embedded - de sélection de variables pour la classification automatique qui permet de découvrir à la fois le nombre de groupes d' objets présents dans les données mais aussi un sous-ensemble d'attributs pertinents. Nous terminons en présentant l'algorithme wβ -SOM qui introduit une pondération des attributs dans la fonction de coût des cartes auto-organisatrices - Self Organizing Maps - qui est ensuite optimisée itérativement en altérant trois étapes : optimisation des affectations, optimisation des prototypes et optimisation des poids. La pondération obtenue après convergence est ensuite utilisée pour proposer une approche filtre - Filter - de selection de variables. Nous concluons cette these en indiquant les limites des approches proposées et envisageant quelques axes à développer lors de la poursuite ces recherches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Manago, Michel. "Intégration de techniques numériques et symboliques en apprentissage automatique". Paris 11, 1988. http://www.theses.fr/1988PA112386.

Texto completo
Resumen
In this dissertation, we present a learning algorithm that uses a schema - based (frames) representation language. From a set of training examples, the system produces either a decision tree, or two sets of concept descriptions : Most general description (minimaly discriminant rules) ; Most specific description (maximally specific rules). These bear sorne similarities with the S and G sets in the version space theory. However, the target concept may be disjunctive (we discuss the limiits of Mitchell's candidate elimination algorithm with respect to learning disjunctive concepts). In order to generate the decision tree, the learning system uses a top-down, hill climbing search strategy. Like in the ID₃system, the heuristic preference criterion is based on information theory and on the entropy measure (numeric learning). The training examples are represented using an object-based formalism and the learning system can use sophisticated general knowledge about the domain (symbolic learning). Frames are used to perform inheritance (top - down propagation of information) and also generalization (bottom up propagation), which lead us in developing our own frame language. Because the training examples now carry so much information, the search space becomes drastically increased. When building the decision tree, a static table of features cannot be used to generate candidate nodes and compute information gain to the ID₃(for each remaining feature). The system thus dynamically generates candidate nodes when building the decision tree, Two procedures to generate these candidate nodes have been implemented. The first one sticks as much as possible to ID₃and traverse the hierarchy of frames (background knowledge) in a general - to - specific manner. The second one is based on the AQ, seed-driven strategy. A comparison of these two metbods is given using the same training set (in previous attempts to compare ID₃ and AQ 11, two different databases examples were used). The system has been applied to the generation of a knowledge base in tomato plant pathology (350 examples described by 213 frames). It has been equiped with several techniques (numeric and symbolic) to detect and treat noise in the training examples. The learning system is efficient, uses background knowledge and can learn several concepts (classes) in a single learning cycle. This work demonstrates that inductive learning techniques have now reached the state of maturity where they can be used as a knowledge acquisition front - end for the most popular “object-based" expert - system shells.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Perreault, Samuel. "Structures de corrélation partiellement échangeables : inférence et apprentissage automatique". Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66443.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

HANSER, THIERRY. "Apprentissage automatique de methodes de synthese a partir d'exemples". Université Louis Pasteur (Strasbourg) (1971-2008), 1993. http://www.theses.fr/1993STR13106.

Texto completo
Resumen
La construction manuelle de bases de connaissance en synthese assistee par ordinateur (sao) est une tache longue et fastidieuse. Cette these decrit une methode qui permet d'automatiser ce travail. Le projet grams (generation de reseaux pour l'apprentissage de methodes de synthese) represente une nouvelle approche dans la maniere d'acquerir, de representer et d'exploiter la connaissance en synthese assistee par ordinateur. Le but du projet est d'etablir une connaissance generale sur des classes de reactions organiques a partir d'exemples extraits de banques de donnees. La methode proposee repose sur des techniques d'apprentissage automatique par induction
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Coulibaly, Lassana. "Contribution en apprentissage automatique pour la maîtrise des risques". Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0109.

Texto completo
Resumen
Les changements climatiques entraînent régulièrement des phénomènes menaçant directement l'environnement et l'humanité. Dans ce contexte, la météorologie joue de plus en plus un rôle important dans la compréhension et la prévision de ces phénomènes. Le problème de fiabilisation des observations est essentiel pour le raisonnement numérique et la qualité de la simulation. En plus, l'interopérabilité est importante tant pour les entreprises que pour les services publics traitant des données et des modèles complexes découlant de ces observations. Dans les services météorologiques, la fiabilité des données d’observations est une exigence fondamentale. Les prévisions du temps et du climats sont dépendantes de nombreux phénomènes physiques à différentes échelles de temps et d’espace. Un de ces phénomènes est le transfert d’énergie de la surface vers l’atmosphère qui est considéré un paramètre sensible. Les observations des paramètres sensibles produisent souvent des données qui ne sont pas fiables (données imparfaites). Un meilleur traitement de ces données imparfaites pourra améliorer l’évaluation de la simulation. Nous proposons l'utilisation de méthodes d'apprentissage automatique susceptibles (i) d'améliorer l’évaluation des échanges entre la surface et l’atmosphère dans les modèles numériques de prévision du temps et du climat et (ii) de produire des connaissances pour l'interopérabilité. Cela peut appuyer la communication des services d'observation et les modèles numériques de prévision. L'objectif de ce travail est de diagnostiquer les modèles numériques de prévision pour chercher les faiblesses de ces modèles dans la simulation des échanges entre la surface et l'atmosphère. Ces échanges sont quantifiés par les flux de chaleur sensible et de chaleur latente. Dans un premier temps, la méthode d'extraction des règles d'association est choisie pour : mettre en évidence les faiblesses du modèle ; effectuer des comparaisons entre les observations effectuées et les simulations réalisées par le modèle numérique pour la détection des variables critiques. Dans un deuxième temps, des processus gaussiens tenant compte des incertitudes sont utilisés pour modéliser les valeurs mesurées afin de rendre la base de données d'observation plus fiable. Cette modélisation est réalisée par un processus d'apprentissage approfondi qui inclut la régression en intégrant les connaissances sur le terrain. Ensuite, un optimiseur a été défini à partir des propriétés sur les transformations géométriques par homothétie. Cet optimiseur permet d'effectuer un ajustement aux données simulées pour mettre à l’échelle le modèle. Ces méthodes sont déployées sur une base de données mesurées sur le site expérimental du Centre de Recherches Atmosphériques (CRA) qui est l'un des deux sites composant la Plateforme Pyrénéenne d'Observation de l'Atmosphère (P2OA) en France. Les résultats obtenus et exprimés sous forme de règles d'association ont permis de mettre en évidence des faiblesses dans les modèles numériques : d'abord, la mise en évidence des différences (erreurs) entre les observations et les simulations ; ensuite l'analyse des règles générées a montré que les différences importantes sur le rayonnement global sont souvent concomitantes à des différences importantes sur les flux de chaleur sensible et latente. Ceci est souvent dû à des perturbations naturelles (par exemple, emplacement des nuages) qui impactent la qualité des observations/ simulations des flux de chaleur sensible et chaleur latente. Les bénéfices escomptés sont relatifs à la génération de connaissances utiles à l'amélioration de la qualité de la simulation numérique des processus de surface. En plus, l'optimiseur proposé a donné des résultats satisfaisants. Les valeurs simulées ont été mises à l’échelle à 100% dans le cas des formes similaires et à 98% dans le cas des formes avec présence de pics. Cet optimiseur peut être appliqué à toutes les autres variables météorologiques
Climate change regularly causes phenomena that directly threaten the environment and humanity. In this context, meteorology is playing more and more an important role in the understanding and forecasting of these phenomena. The problems of reliability of the observations is essential for the numerical reasoning and the quality of the simulation. In addition, interoperability is important both for companies and for public services dealing with complex data and models. In meteorological services, the reliability of observational data is a fundamental requirement. Weather and climate predictions are dependent on many physical phenomena on different time and space scales. One of these phenomena is the transfer of energy from the surface to the atmosphere that is a sensitive parameter. Observations of sensitive parameters often produce data that are unreliable (imperfect data). A better treatment of these imperfect data may improve the evaluation of the simulation. We propose the use of machine learning methods that can : (i) improve the evaluation of surface-atmosphere exchanges in numerical weather and climate prediction models and (ii) produce knowledge for interoperability. This can support the communication of observation services and numerical prediction models. The objective of this work is to diagnose numerical prediction models in order to look for the weaknesses of these models in the simulation of exchanges between the surface and the atmosphere. These exchanges are quantified by sensible and latent heat fluxes. In a first instance, Gaussian processes taking into account uncertainties are used to model the measured values in order to make the observational database more reliable. This modelling is carried out through a thorough learning process that includes regression by integrating field knowledge. Then the extraction method of the association rules is chosen in order to : highlight the weaknesses of the model ; make comparisons between the observations made and the simulations made by the numerical model. Finally, an optimizer has been defined from some properties on geometric transformations in mathematics. This optimizer makes it possible to perform an adjustment to the simulated data in order to minimize simulation errors. These methods are deployed on a measured data base on the experimental site of the Centre de Recherches Atmosphériques (CRA) which is one of the two sites making up the Pyrénéenne Plateforme d'Observation de l'Atmosphère (P2OA) in France. The results obtained and expressed in the form of association rules have made it possible to highlight certain weaknesses in the numerical models : first, the highlighting of differences (errors) between the observations and the simulations ; then the analysis of the generated rules showed that important differences on global radiation are often concomitant with important differences on sensible and latent heat fluxes. This is often due to natural disturbances (e.g. cloud location) that impact the quality of observations/simulations of sensible and latent heat fluxes. The expected benefits are related to the generation of useful knowledge to improve the quality of numerical simulation of surface processes. In addition, the proposed optimizer gave satisfactory results. The simulated values were scaled to 100% in the case of similar shapes and to 98% in the case of shapes with peaks. This optimizer can be applied to all other meteorological variables
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Texto completo
Resumen
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Manago, Michel. "Intégration de techniques numériques et symboliques en apprentissage automatique". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37619406x.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Crochepierre, Laure. "Apprentissage automatique interactif pour les opérateurs du réseau électrique". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0112.

Texto completo
Resumen
Dans le contexte de la transition énergétique et de l'augmentation des interconnexions entre les réseaux de transport d'électricité en Europe, les opérateurs du réseau français doivent désormais faire face à davantage de fluctuations et des dynamiques nouvelles sur le réseau. Pour garantir la sûreté de ce réseau, les opérateurs s'appuient sur des logiciels informatiques permettant de réaliser des simulations, ou de suivre l'évolution d'indicateurs créés manuellement par des experts grâce à leur connaissance du fonctionnement du réseau. Le gestionnaire de réseau de transport d'électricité français RTE (Réseau de Transport d'Electricité) s'intéresse notamment aux développements d'outils permettant d'assister les opérateurs dans leur tâche de surveillance des transits sur les lignes électriques. Les transits sont en effet des grandeurs particulièrement importantes pour maintenir le réseau dans un état de sécurité, garantissant la sûreté du matériel et des personnes. Cependant, les indicateurs utilisés ne sont pas faciles à mettre à jour du fait de l'expertise nécessaire pour les construire et les analyser. Pour répondre à la problématique énoncée, cette thèse a pour objet la construction d'indicateurs, sous la forme d'expressions symboliques, permettant d'estimer les transits sur les lignes électriques. Le problème est étudié sous l'angle de la Régression Symbolique et investigué à la fois par des approches génétiques d'Evolution Grammaticale et d'Apprentissage par Renforcement dans lesquelles la connaissance experte, explicite et implicite, est prise en compte. Les connaissances explicites sur la physique et l'expertise du domaine électrique sont représentées sous la forme d'une grammaire non-contextuelle délimitant l'espace fonctionnel à partir duquel l'expression est créée. Une première approche d'Evolution Grammaticale Interactive propose d’améliorer incrémentalement les expressions trouvées par la mise à jour d'une grammaire entre les apprentissages évolutionnaires. Les expressions obtenues sur des données réelles issues de l'historique du réseau sont validées par une évaluation de métriques d'apprentissages, complétée par une évaluation de leur interprétabilité. Dans un second temps, nous proposons une approche par renforcement pour chercher dans un espace délimité par une grammaire non-contextuelle afin de construire une expression symbolique pertinente pour des applications comportant des contraintes physiques. Cette méthode est validée sur des données de l'état de l'art de la régression symbolique, ainsi qu’un jeu de données comportant des contraintes physiques pour en évaluer l'interprétabilité. De plus, afin de tirer parti des complémentarités entre les capacités des algorithmes d'apprentissage automatique et de l'expertise des opérateurs du réseau, des algorithmes interactifs de Régression Symbolique sont proposés et intégrés dans des plateformes interactives. L'interactivité est employée à la fois pour mettre à jour la connaissance représentée sous forme grammaticale, analyser, interagir avec et commenter les solutions proposées par les différentes approches. Ces algorithmes et interfaces interactifs ont également pour but de prendre en compte de la connaissance implicite, plus difficile à formaliser, grâce à l'utilisation de mécanismes d'interactions basés sur des suggestions et des préférences de l’utilisateur
In the energy transition context and the increase in interconnections between the electricity transmission networks in Europe, the French network operators must now deal with more fluctuations and new network dynamics. To guarantee the safety of the network, operators rely on computer software that allows them to carry out simulations or to monitor the evolution of indicators created manually by experts, thanks to their knowledge of the operation of the network. The French electricity transmission network operator RTE (Réseau de Transport d'Electricité) is particularly interested in developing tools to assist operators in monitoring flows on power lines. Flows are notably important to maintain the network in a safe state, guaranteeing the safety of equipment and people. However, the indicators used are not easy to update because of the expertise required to construct and analyze them.In order to address the stated problem, this thesis aims at constructing indicators, in the form of symbolic expressions, to estimate flows on power lines. The problem is studied from the Symbolic Regression perspective and investigated using both Grammatical Evolution and Reinforcement Learning approaches in which explicit and implicit expert knowledge is taken into account. Explicit knowledge about the physics and expertise of the electrical domain is represented in the form of a Context-Free Grammar to limit the functional space from which an expression is created. A first approach of Interactive Grammatical Evolution proposes to incrementally improve found expressions by updating a grammar between evolutionary learnings. Expressions are obtained on real-world data from the network history, validated by an analysis of learning metrics and an interpretability evaluation. Secondly, we propose a reinforcement approach to search in a space delimited by a Context-Free Grammar in order to build a relevant symbolic expression to applications involving physical constraints. This method is validated on state-of-the-art Symbolic Regression benchmarks and also on a dataset with physical constraints to assess its interpretability.Furthermore, in order to take advantage of the complementarities between the capacities of machine learning algorithms and the expertise of network operators, interactive Symbolic Regression algorithms are proposed and integrated into interactive platforms. Interactivity allows updating the knowledge represented in grammatical form and analyzing, interacting with, and commenting on the solutions found by the different approaches. These algorithms and interactive interfaces also aim to take into account implicit knowledge, which is more difficult to formalize, through interaction mechanisms based on suggestions and user preferences
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Jacques, Céline. "Méthodes d'apprentissage automatique pour la transcription automatique de la batterie". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS150.

Texto completo
Resumen
Cette thèse se concentre sur les méthodes d’apprentissage pour la transcription automatique de la batterie. Elles sont basées sur un algorithme de transcription utilisant une méthode de décomposition non-négative, la NMD. Cette thèse soulève deux principales problématiques : l’adaptation des méthodes au signal analysé et l’utilisation de l’apprentissage profond. La prise en compte des informations du signal analysé dans le modèle peut être réalisée par leur introduction durant les étapes de décomposition. Une première approche est de reformuler l’étape de décomposition dans un contexte probabiliste pour faciliter l’introduction d’informations a posteriori avec des méthodes comme la SI-PLCA et la NMD statistique. Une deuxième approche est d’implémenter directement dans la NMD une stratégie d’adaptation : l’application de filtres modelables aux motifs pour modéliser les conditions d’enregistrement ou l’adaptation des motifs appris directement au signal en appliquant de fortes contraintes pour conserver leur signification physique. La deuxième approche porte sur la sélection des segments de signaux à analyser. Il est préférable d’analyser les segments où au moins un événement percussif a lieu. Un détecteur d’onsets basé sur un réseau de neurones convolutif (CNN) est adapté pour détecter uniquement les onsets percussifs. Les résultats obtenus étant très intéressants, le détecteur est entraîné à ne détecter qu’un seul instrument permettant la réalisation de la transcription des trois principaux instruments de batterie avec trois CNN. Finalement, l’utilisation d’un CNN multi-sorties est étudiée pour transcrire la partie de batterie avec un seul réseau
This thesis focuses on learning methods for automatic transcription of the battery. They are based on a transcription algorithm using a non-negative decomposition method, NMD. This thesis raises two main issues: the adaptation of methods to the analyzed signal and the use of deep learning. Taking into account the information of the signal analyzed in the model can be achieved by their introduction during the decomposition steps. A first approach is to reformulate the decomposition step in a probabilistic context to facilitate the introduction of a posteriori information with methods such as SI-PLCA and statistical NMD. A second approach is to implement an adaptation strategy directly in the NMD: the application of modelable filters to the patterns to model the recording conditions or the adaptation of the learned patterns directly to the signal by applying strong constraints to preserve their physical meaning. The second approach concerns the selection of the signal segments to be analyzed. It is best to analyze segments where at least one percussive event occurs. An onset detector based on a convolutional neural network (CNN) is adapted to detect only percussive onsets. The results obtained being very interesting, the detector is trained to detect only one instrument allowing the transcription of the three main drum instruments with three CNNs. Finally, the use of a CNN multi-output is studied to transcribe the part of battery with a single network
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Njike, Fotzo Hermine. "Structuration Automatique de Corpus Textuels par Apprentissage Automatique : Automatically structuring textual corpora with machine learning methods". Paris 6, 2004. http://www.theses.fr/2004PA066567.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Duclaye, Florence. "Apprentissage automatique de relations d'équivalence sémantique à partir du Web". Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00001119.

Texto completo
Resumen
Cette thèse s'inscrit dans le contexte d'un système de Questions-Réponses, capable de trouver automatiquement sur le Web la réponse à des questions factuelles traitant de n'importe quel sujet. L'une des manières d'améliorer la qualité des réponses fournies consiste à augmenter le taux de rappel du système. Pour cela, il est nécessaire de pouvoir identifier les réponses sous de multiples formulations possibles. A titre illustratif, la réponse à la question "Quelle est la hauteur de la Tour Eiffel ?" peut non seulement être exprimée de la même manière que dans la question ("la hauteur de la Tour Eiffel est 300 mètres"), mais également sous d'autres formes lexico-syntaxiques ("la Tour Eiffel culmine à 300 mètres", "la Tour Eiffel fait 300 mètres de haut", etc). On parle alors de paraphrases de la réponse. Le recensement manuel de ces paraphrases étant un travail long et coûteux, l'objectif de cette thèse est de concevoir et développer un mécanisme capable d'apprendre de façon automatique et faiblement supervisée les paraphrases possibles d'une réponse. Inscrite dans le vaste domaine de l'acquisition automatique de connaissances sémantiques, la méthode d'apprentissage présentée fait du Web son corpus privilégié, en particulier par la redondance et la variété linguistique des informations qu'il contient. Considéré comme un gigantesque graphe biparti représenté, d'une part, par des formulations (expressions d'une relation sémantique, comme "culmine à" ou "fait ... de haut") et d'autre part par des couples d'arguments (entités nommées régies par ces formulations, comme "Tour Eiffel - 300 mètres"), le Web s'avère propice à l'application de la citation de Firth, selon laquelle le sens d'un terme (respectivement d'une formulation, dans notre cas) est lié aux termes (respectivement aux arguments) avec lesquels il cooccurre. Ainsi, par un mécanisme itératif, le Web est échantillonné: les formulations (paraphrases potentielles) sont extraites par ancrage des arguments sur le Web et, inversement, de nouveaux arguments sont extraits par ancrages des formulations acquises. Afin de permettre à l'apprentissage de converger, une étape intermédiaire de classification statistique des données échantillonnées est nécessaire. Les résultats obtenus ont fait l'objet d'une évaluation empirique, ce qui permet en particulier de montrer la valeur ajoutée des paraphrases apprises sur le système de Questions-Réponses. De plus, ces résultats mettent en évidence quelques perspectives exploratoires qui permettront d'améliorer le processus d'apprentissage et de l'utiliser dans d'autres contextes applicatifs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Bernhard, Delphine. "Apprentissage de connaissances morphologiques pour l'acquisition automatique de ressources lexicales". Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00119257.

Texto completo
Resumen
Les ressources lexico-sémantiques, telles que les thésaurus, les terminologies ou les ontologies, visent à organiser les connaissances en rendant explicites divers types de relations sémantiques comme la synonymie ou la spécialisation. Le coût de la construction manuelle de telles ressources reste élevé, ce qui explique l'essor des méthodes d'acquisition automatique de connaissances, allant de l'extraction des termes représentant les unités de connaissance à l'identification des relations sémantiques qui les relient. Nous nous intéressons dans cette thèse au rôle que peut jouer la morphologie, c'est-à-dire la structure interne des mots, pour l'acquisition de telles connaissances à partir de corpus de textes de spécialité, essentiellement médicaux, et dans une perspective multilingue.

Nous présentons deux systèmes d'acquisition de connaissances morphologiques non supervisés, caractérisés par des approches différentes. Le premier procède par segmentation des mots, tandis que le second regroupe les mots dans des familles morphologiques.

Nous explorons ensuite les utilisations possibles de ce type d'informations pour l'acquisition de termes et de relations sémantiques. Nous proposons notamment une méthode de pondération et de visualisation des mots clés extraits de corpus de textes de spécialité en fonction de leur famille morphologique. Nous définissons également des schémas, basés sur les résultats de la segmentation morphologique, afin de découvrir des relations sémantiques telles que la spécialisation et la cohyponymie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Nicolas, Jacques. "Ally, un systeme logique pour la generalisation en apprentissage automatique". Rennes 1, 1987. http://www.theses.fr/1987REN10043.

Texto completo
Resumen
Deux criteres sont proposes, permettant de specifier logiquement les proprietes des formules produites par l'operation de generalisation: un critere de consistance et un critere de preference. Un langage de representation particulierement riche (la classe de bernays-schoenfinkel) est utilise
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Duclaye, Florence Aude Dorothée. "Apprentissage automatique de relations d'équivalence sémantique à partir du Web". Paris, ENST, 2003. http://www.theses.fr/2003ENST0044.

Texto completo
Resumen
Cette thèse s'inscrit dans le contexte d'un système de questions-réponses, capable de trouver automatiquement sur le Web la réponse à des questions factuelles. L'une des manières d'améliorer la qualité des réponses fournies consiste à augmenter le taux de rappel du système et à identifier pour cela les réponses sous de multiples formulations possibles (paraphrases). Le recensement manuel de ces paraphrases étant un travail long et coûteux, l'objectif de cette thèse est de concevoir et développer un mécanisme d'apprentissage automatique et faiblement supervisé des paraphrases possibles d'une réponse. La méthode d'apprentisage présentée fait du Web son corpus privilégié, en particulier par la redondance et la variété linguistique des informations qu'il contient. Considéré comme un gigantesque graphe biparti représenté, d'une part, par des formulations et, d'autre part, par des couples d'arguments, le Web s'avère propice à l'application de la citation de Firth, selon laquelle le sens d'un terme (respectivement d'une formulation, dans notre cas) est lié aux termes (respectivement aux arguments) avec lesquels il cooccurre. Ainsi, par un mécanisme itératif, le Web est échantillonné : les formulations (paraphrases potentielles) sont extraites par ancrage des arguments, et inversement, de nouveaux arguments sont extraits par ancrage des formulations acquises. Afin de permettre à l'apprentissage de converger, une étape intermédiaire de classification statistique des données échantillonnées est nécessaire. Les résultats obtenus ont fait l'objet d'une évaluation empirique, montrant en particulier la valeur ajoutée des paraphrases apprises sur le système de questions-réponses
This PhD thesis can be situated in the context of a question answering system, which is capable of automatically finding answers to factual questions on the Web. One way to improve the quality of these answers is to increase the recall rate of the system, by identifying the answers under multiple possible formulations(paraphrases). As the manual recording of paraphrases is a long and expensive task, the goal of this PhD thesis is to design and develop a mechanism that learns automatically and in a weakly supervised manner the possible paraphrases of an answer. Thanks to the redundance and the linguistic variety of the information it contains, the Web is considered to be a very interesting corpus. Assimilated to a gigantic bipartite graph represented, on the one hand, by formulations and, on the other hand, by argument couples, the Web turns out to be propitious to the application of Firth's hypothesis, according to which "you shall know a word (resp. A formulation, in our case) by the company (resp. Arguments) it keeps". Consequently, the Web is sampled using an iterative mechanism : formulations (potential paraphrases) are extracted by anchoring arguments and, inversely, new arguments are extracted by anchoring the acquired formulations. In order to make the learning process converge, an intermediary stage is necessary, which partitions the sampled data using a statistical classification method. The obtained results were empirically evaluated, which, more particularly, shows the value added by the learnt paraphrases of the question answering system
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Morlec, Yann. "Génération multiparamétrique de la prosodie du français par apprentissage automatique". Grenoble INPG, 1997. http://www.theses.fr/1997INPG0221.

Texto completo
Resumen
Cette these a pour objet la conception, l'apprentissage automatique et l'evaluation d'un modele de generation de la prosodie du francais. Ce modele, d'inspiration cognitive, suppose un encodage direct des informations linguistiques et para-linguistiques vehiculees par un enonce via des formes prosodiques prototypiques. Ces formes - ou mouvements - sont enchainees au sein d'un meme niveau linguistique (phrase, groupe, mot. . . ) et se superposent a des enchainements encodant les niveaux superieurs. Cette morphologie superpositionnelle opere de maniere multiparametrique. Dans le cadre de cette these, nous avons etudie deux niveaux linguistiques - la phrase et le groupe - et deux dimensions prosodiques - la melodie et le rythme. Pour ces deux niveaux, nous avons elabore un systeme de generation conjoint des contours melodiques et rythmiques, parametre par un apprentissage automatique hierarchique sur des corpus de parole naturelle. L'architecture du modele est un reseau de neurones recurrent a connections partielles. Les corpus de parole ont ete concus de facon a prendre en compte le phenomene linguistique etudie avec une representativite statistique suffisante, et a faire varier systematiquement le contenu des niveaux linguistiques inferieurs. A partir d'un corpus de phrases isolees prononcees par un locuteur selon six consignes attitudinales, nous avons entrepris la generation des prototypes melodiques et rythmiques du niveau de la phrase vehiculant l'attitude du locuteur vis-a-vis de son propos. Nous avons egalement etudie, sur la base d'un corpus de phrases declaratives, les modulations du niveau porte de groupe prenant en charge la fonction de structuration de l'enonce. Chaque etape d'apprentissage de notre modele a ete sanctionnee par un test de perception destine a evaluer sa capacite a capturer les informations necessaires et suffisantes pour communiquer les fonctions linguistiques donne
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Ferreira, Emmanuel. "Apprentissage automatique en ligne pour un dialogue homme-machine situé". Thesis, Avignon, 2015. http://www.theses.fr/2015AVIG0206/document.

Texto completo
Resumen
Un système de dialogue permet de doter la Machine de la capacité d'interagir de façon naturelle et efficace avec l'Homme. Dans cette thèse nous nous intéressons au développement d'un système de dialogue reposant sur des approches statistiques, et en particulier du cadre formel des Processus Décisionnel de Markov Partiellement Observable, en anglais Partially Observable Markov Decision Process (POMDP), qui à ce jour fait office de référence dans la littérature en ce qui concerne la gestion statistique du dialogue. Ce modèle permet à la fois une prise en compte améliorée de l'incertitude inhérente au traitement des données en provenance de l'utilisateur (notamment la parole) et aussi l'optimisation automatique de la politique d'interaction à partir de données grâce à l'apprentissage par renforcement, en anglais Reinforcement Learning (RL). Cependant, une des problématiques liées aux approches statistiques est qu'elles nécessitent le recours à une grande quantité de données d'apprentissage pour atteindre des niveaux de performances acceptables. Or, la collecte de telles données est un processus long et coûteux qui nécessite généralement, pour le cas du dialogue, la réalisation de prototypes fonctionnels avec l'intervention d'experts et/ou le développement de solution alternative comme le recours à la simulation d'utilisateurs. En effet, très peu de travaux considèrent à ce jour la possibilité d'un apprentissage de la stratégie de la Machine de part sa mise en situation de zéro (sans apprentissage préalable) face à de vrais utilisateurs. Pourtant cette solution présente un grand intérêt, elle permet par exemple d'inscrire le processus d'apprentissage comme une partie intégrante du cycle de vie d'un système lui offrant la capacité de s'adapter à de nouvelles conditions de façon dynamique et continue. Dans cette thèse, nous nous attacherons donc à apporter des solutions visant à rendre possible ce démarrage à froid du système mais aussi, à améliorer sa capacité à s'adapter à de nouvelles conditions (extension de domaine, changement d'utilisateur,...). Pour ce faire, nous envisagerons dans un premier temps l'utilisation de l'expertise du domaine (règles expertes) pour guider l'apprentissage initial de la politique d'interaction du système. De même, nous étudierons l'impact de la prise en compte de jugements subjectifs émis par l'utilisateur au fil de l'interaction dans l'apprentissage, notamment dans un contexte de changement de profil d'utilisateur où la politique préalablement apprise doit alors pouvoir s'adapter à de nouvelles conditions. Les résultats obtenus sur une tâche de référence montrent la possibilité d'apprendre une politique (quasi-)optimale en quelques centaines d'interactions, mais aussi que les informations supplémentaires considérées dans nos propositions sont à même d'accélérer significativement l'apprentissage et d'améliorer la tolérance aux bruits dans la chaîne de traitement. Dans un second temps nous nous intéresserons à réduire les coûts de développement d'un module de compréhension de la parole utilisé dans l'étiquetage sémantique d'un tour de dialogue. Pour cela, nous exploiterons les récentes avancées dans les techniques de projection des mots dans des espaces vectoriels continus conservant les propriétés syntactiques et sémantiques, pour généraliser à partir des connaissances initiales limitées de la tâche pour comprendre l'utilisateur. Nous nous attacherons aussi à proposer des solutions afin d'enrichir dynamiquement cette connaissance et étudier le rapport de cette technique avec les méthodes statistiques état de l'art. Là encore nos résultats expérimentaux montrent qu'il est possible d'atteindre des performances état de l'art avec très peu de données et de raffiner ces modèles ensuite avec des retours utilisateurs dont le coût peut lui-même être optimisé
A dialogue system should give the machine the ability to interactnaturally and efficiently with humans. In this thesis, we focus on theissue of the development of stochastic dialogue systems. Thus, we especiallyconsider the Partially Observable Markov Decision Process (POMDP)framework which yields state-of-the-art performance on goal-oriented dialoguemanagement tasks. This model enables the system to cope with thecommunication ambiguities due to noisy channel and also to optimize itsdialogue management strategy directly from data with Reinforcement Learning (RL)methods.Considering statistical approaches often requires the availability of alarge amount of training data to reach good performance. However, corpora of interest are seldom readily available and collectingsuch data is both time consuming and expensive. For instance, it mayrequire a working prototype to initiate preliminary experiments with thesupport of expert users or to consider other alternatives such as usersimulation techniques.Very few studies to date have considered learning a dialogue strategyfrom scratch by interacting with real users, yet this solution is ofgreat interest. Indeed, considering the learning process as part of thelife cycle of a system offers a principle framework to dynamically adaptthe system to new conditions in an online and seamless fashion.In this thesis, we endeavour to provide solutions to make possible thisdialogue system cold start (nearly from scratch) but also to improve its ability to adapt to new conditions in operation (domain extension, new user profile, etc.).First, we investigate the conditions under which initial expertknowledge (such as expert rules) can be used to accelerate the policyoptimization of a learning agent. Similarly, we study how polarized userappraisals gathered throughout the course of the interaction can beintegrated into a reinforcement learning-based dialogue manager. Morespecifically, we discuss how this information can be cast intosocially-inspired rewards to speed up the policy optimisation for bothefficient task completion and user adaptation in an online learning setting.The results obtained on a reference task demonstrate that a(quasi-)optimal policy can be learnt in just a few hundred dialogues,but also that the considered additional information is able tosignificantly accelerate the learning as well as improving the noise tolerance.Second, we focus on reducing the development cost of the spoken language understanding module. For this, we exploit recent word embedding models(projection of words in a continuous vector space representing syntacticand semantic properties) to generalize from a limited initial knowledgeabout the dialogue task to enable the machine to instantly understandthe user utterances. We also propose to dynamically enrich thisknowledge with both active learning techniques and state-of-the-artstatistical methods. Our experimental results show that state-of-the-artperformance can be obtained with a very limited amount of in-domain andin-context data. We also show that we are able to refine the proposedmodel by exploiting user returns about the system outputs as well as tooptimize our adaptive learning with an adversarial bandit algorithm tosuccessfully balance the trade-off between user effort and moduleperformance.Finally, we study how the physical embodiment of a dialogue system in a humanoid robot can help the interaction in a dedicated Human-Robotapplication where dialogue system learning and testing are carried outwith real users. Indeed, in this thesis we propose an extension of thepreviously considered decision-making techniques to be able to take intoaccount the robot's awareness of the users' belief (perspective taking)in a RL-based situated dialogue management optimisation procedure
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Nicolas, Jacques. "ALLY, un système logique pour la généralisation en apprentissage automatique". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608434q.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Duclaye, Florence. "Apprentissage automatique de relations d'équivalence sémantique à partir du Web /". Paris : École nationale supérieure des télécommunications, 2005. http://catalogue.bnf.fr/ark:/12148/cb39935321s.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Ben, Hassena Anouar. "Apprentissage par analogie de structures d'arbres". Rennes 1, 2012. http://www.theses.fr/2011REN1E007.

Texto completo
Resumen
Les travaux de cette thèse s'inscrivent dans la continuité des travaux faites sur le thème d'apprentissage par analogie dans le projet CORDIAL de l'IRISA. Les efforts précédents ont porté sur l'étude de la proportion analogique dans le cas des objets numériques et symboliques, puis dans le cas de séquences de ces objets, ainsi que sur l'utilisation de ces notions pour l'apprentissage. Nous nous intéressons ici, dans nos travaux, à l'application de ce concept en apprentissage automatique pour le Traitement automatique du langage naturel (TALN), notamment pour l'analyse syntaxique et pour la génération de la prosodie en synthèse de parole. Ceci nécessite de définir le concept de proportion analogique entre quatre structures d'arbres. Notre approche trouve son originalité dans l'utilisation des propriétés hiérarchiques des structures manipulées et dans l'utilisation de mesure de dissemblance analogique (DA) entre ces structures. Son intérêt réside donc dans son adaptation facile à différents contextes et différentes données, quand ceux-ci sont propices à une représentation arborescente. Dans ce cadre, deux algorithmes ont été mis en place pour calculer la DA entre quatre structures d'arbres et pour résoudre une équation analogique. Le principe de notre démarche réside à étendre la notion connue d'alignement entre deux arbres à quatre (ou un plus grand nombre) d'arbres et de profiter des propriétés de l'alignement lors de la définition de l'analogie sur les structures d'arbres en question. Les applications de notre démarche se sont attachées à des problèmes de traitement de langue, notamment en analyse syntaxique et la génération de paramètres prosodiques. Le principe est le même dans les deux cas. Pour ce faire, il est nécessaire de détecter une dissemblance analogique dans le domaine source et de faire l'hypothèse qu'elle pourrait s'appliquer dans le domaine cible. Les résultats se sont montrés encourageants dans leur globalité, en tout cas comparés à la méthode du plus proche voisin. De profondes améliorations sont encore nécessaires, principalement dans la complexité des algorithmes. Nous souhaitons que leur réalisation ultérieure permette d'appliquer cette méthode, qui nous semble prometteuse, à des problèmes variés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications". Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.

Texto completo
Resumen
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i. E. , où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c)
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Teytaud, Olivier Paugam-Moisy Hélène. "Apprentissage, réseaux de neurones et applications". [S.l.] : [s.n.], 2001. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2001/teytaud_o.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Lefort, Riwal. "Apprentissage et classification faiblement supervisée : application en acoustique halieutique". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0164.

Texto completo
Resumen
Cette thèse traite de la classification automatique d'objets dans un cadre d'apprentissage faiblement supervisé. Une application à l'acoustique halieutique est considérée. En classification faiblement supervisée, la connaissance des labels des données d'apprentissage est une connaissance a priori. De manière formelle, chaque objet d'apprentissage est associé à un vecteur dont les composantes donnent les probabilités de classification a priori de l'objet dans chaque classe. Dans ce contexte, nous proposons un modèle génératif, un modèle discriminant, et un modèle basé sur les forêts aléatoires. En outre, un processus itératif est proposé pour modifier les données d'apprentissage afin que des a priori faibles tendent vers des a priori plus certains. Nous fournissons une évaluation quantitative des contributions méthodologiques proposées en fonction de la complexité des situations d'apprentissage faiblement supervisé pour différents jeux de données. Les sondeurs acoustiques sont des outils d'observation in situ des écosystèmes pélagiques (couches de planctons, bancs de poissons, etc). L'analyse et la caractérisation des images acoustiques permettent l'étude des écosystèmes et la préservation des espèces. Dans ce contexte, le nouveau sondeur multifaisceaux donne une vision 3D de la colonne d'eau et une résolution accrue de l'observation des agrégations. Premièrement, nous proposons un nouveau descripteur global des images qui modélise la distribution spatiale des agrégations. Deuxièmement, nous proposons d'appliquer les méthodes de classification faiblement supervisée au cas de l'évaluation de la biomasse des espèces
This thesis deals with object classification and weakly supervised learning. An application to fisheries acoustics is considered. In weakly supervised learning, the training dataset is weakly annotated, i. E. The class knowledge is given by prior. Formally, each training object is associated with vector that provides the prior for each class. In this context, we investigate generative model, discriminative model and a model based on random forest. Furthermore, an iterative procedure is proposed for modifying uncertain priors from low value to more certain value. Experiments are carried out to evaluate classification models as regards to prior complexity. In order to control the prior complexity, weakly supervised dataset are generated from supervised dataset. In fisheries acoustics, fish schools in images are classified, the objective being to study an ecosystem or to assess fish stock biomass. Fish species identification is carried out by trawl catches that provide species prior in a given area. In this context, the new multibeam echosunder provides 3D images. These images are richer and more informative than 2D monobeam echosounder. Firstly, we propose a new global descriptor for characterizing fish school images. The descriptor models both the spatial distribution of fish schools in images and the type of fish schools. Secondly, we propose to apply weakly supervised training schemes to assess fish school biomass in the Bay of Biscay
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Charton, Eric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases". Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00622561.

Texto completo
Resumen
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d'attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d'exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l'implémentation d'un système de GAT en plusieurs langues et améliore les capacités d'adaptations d'un système de génération à un domaine sémantique particulier. La production, d'après un corpus d'apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l'extraction d'information et de la classification. Nous décrivons le système d'étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d'information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l'intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d'investigations prometteuses sur la nature du processus de formation de phrases
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Murgue, Thierry. "Extraction de données et apprentissage automatique pour les sites web adaptatifs". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00366586.

Texto completo
Resumen
Les travaux présentés se situent dans le cadre d'extraction de connaissance à partir de données. Un contexte d'étude intéressant et d'actualité a été choisi : les sites web adaptatifs. Pour mettre en oeuvre, de manière la plus automatique possible, de tels sites adaptés aux utilisateurs, nous décidons d'apprendre des modèles d'utilisateurs ou, plus précisément, de leurs types de navigations sur un site web donné. Ces modèles sont appris par inférence grammaticale. Les données disponibles liées au contexte du Web sont particulièrement difficiles à récupérer proprement. Nous choisissons de nous focaliser sur les fichiers de logs serveur en supprimant le bruit inhérent à ces derniers. L'inférence grammaticale peut généraliser ses données d'entrée pour obtenir de bons modèles de langages. Nous travaillons sur les mesures de similarité entre langages pour l'évaluation de la qualité des modèles appris. L'introduction d'une mesure euclidienne entre modèles de langages représentés sous forme d'automates permet de pallier les problèmes des métriques existantes. Des résultats théoriques montrent que cette mesure a les propriétés d'une vraie distance. Enfin, nous présentons divers résultats d'expérimentation sur des données du web que nous pré-traitons avant d'apprendre grâce à elles des modèles utilisateurs issus de l'inférence grammaticale stochastique. Les résultats obtenus sont sensiblement meilleurs que ceux présents dans l'état de l'art, notamment sur les tâches de prédiction de nouvelle page dans une navigation utilisateur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Charton, Éric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases". Thesis, Avignon, 2010. http://www.theses.fr/2010AVIG0175/document.

Texto completo
Resumen
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d’attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d’exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l’implémentation d’un système de GAT en plusieurs langues et améliore les capacités d’adaptations d’un système de génération à un domaine sémantique particulier. La production, d’après un corpus d’apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l’extraction d’information et de la classification. Nous décrivons le système d’étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d’information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l’intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d’investigations prometteuses sur la nature du processus de formation de phrases
Natural Language Generation (NLG) is the natural language processing task of generating natural language from a machine representation system. In this thesis report, we present an architecture of NLG system relying on statistical methods. The originality of our proposition is its ability to use a corpus as a learning resource for sentences production. This method offers several advantages : it simplifies the implementation and design of a multilingual NLG system, capable of sentence production of the same meaning in several languages. Our method also improves the adaptability of a NLG system to a particular semantic field. In our proposal, sentence generation is achieved trough the use of sentence models, obtained from a training corpus. Extracted sentences are abstracted by a labelling step obtained from various information extraction and text mining methods like named entity recognition, co-reference resolution, semantic labelling and part of speech tagging. The sentence generation process is achieved by a sentence realisation module. This module provide an adapted sentence model to fit a communicative intent, and then transform this model to generate a new sentence. Two methods are proposed to transform a sentence model into a generated sentence, according to the semantic content to express. In this document, we describe the complete labelling system applied to encyclopaedic content to obtain the sentence models. Then we present two models of sentence generation. The first generation model substitute the semantic content to an original sentence content. The second model is used to find numerous proto-sentences, structured as Subject, Verb, Object, able to fit by part a whole communicative intent, and then aggregate all the selected proto-sentences into a more complex one. Our experiments of sentence generation with various configurations of our system have shown that this new approach of NLG have an interesting potential
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Caillaud, Bertrand. "Apprentissage de connaissances prosodiques pour la reconnaissance automatique de la parole". Grenoble INPG, 1996. http://www.theses.fr/1996INPG0219.

Texto completo
Resumen
Depuis plusieurs annees (pratiquement depuis le debut des travaux en reconnaissance automatique de la parole), de grands espoirs ont ete fondes sur l'utilisation de la prosodie en comprehension automatique de la parole, a la fois aux niveaux acoustico-phonetique et linguistiques. Certains de ces espoirs ne se sont pas concretises car le role de la prosodie se partage entre tous ces differents niveaux et son influence est difficile a isoler. Ce memoire presente les relations entre les traitements bases sur la prosodie et les autres processus de comprehension de la parole. Pour cela, notre approche s'est appuye sur des techniques d'apprentissage symbolique qui permettent de produire des fonctions de classification efficaces dont le formalisme de representation autorise ensuite leur interpretation par un expert humain. Nous avons donc pu etudier la faisabilite d'une voie de traitement basee sur la prosodie et, en particulier, evaluer l'utilisation de celle-ci pour la demarcation d'evenements lexicaux. Ces travaux ont conduit a l'integration d'une voie prosodique dans un systeme multi-agent pour la comprehension de la parole dont l'architecture est inspiree de theories issues des sciences cognitives.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Ould, Abdel Vetah Mohamed. "Apprentissage automatique appliqué à l'extraction d'information à partir de textes biologiques". Paris 11, 2005. http://www.theses.fr/2005PA112133.

Texto completo
Resumen
Dans le cadre de cette thèse nous nous sommes intéressés à l'extraction d'informations à partir de données textuelles. Dans ce domaine, deux grandes approches co-existent. La première, qui consiste en un traitement statistique superficiel présente l'avantage d'avoir une mise en oeuvre facile. En revanche, l'information extraite est souvent imprécise, de nature incomplète et bruitée. La deuxième voie, consiste à privilégier des techniques plus profondes d'analyse et de normalisation textuelles ainsi que l'exploitation des techniques d'apprentissage automatique pour acquérir les ressources nécessaires à la tâche. Ce type d'approche, complexe et dont la mise en oeuvre est difficile permet une meilleure prise en compte de la diversité des formulations dans le texte. Il permet également un gain de temps appréciable quand il s'agit d'adapter les ressources, notamment quand la tâche d'extraction change. Dans cette thèse, nous avons contribué à la mise en place d'une chaîne complète d'extraction des interactions géniques à partir de résumés scientifique issus de MedLine basée sur cette seconde famille d'approches. Dans la première partie de notre travail, nous avons mis au point un module de filtrage de phrases, disponible en ligne et déjà utilisé par les biologistes, permettant d'identifier automatiquement les phrases parlant d'interactions. Dans un deuxième temps, nous avons proposé une méthode originale d'acquisition de règles d'extraction basée sur une abstraction de l'analyse syntaxique Les résultats préliminaires obtenus sont prometteurs et montrent que cette abstraction permet d'obtenir une bonne représentation pour l'apprentissage des règles d'extraction
This thesis is about information extraction from textual data. Two main approaches co-exist in this field. The first approach is based on shallow text analysis. These methods are easy to implement but the information they extract is often incomplete and noisy. The second approach requires deeper structural linguistic information. Compared to the first approach, it has the double advantage of being easily adaptable and of taking into account the diversity of formulation which is an intrinsic characteristic of textual data. In this thesis, we have contributed to the realization of a complete information extraction tool based on this latter approach. Our tool is dedicated to the automatic extraction of gene interactions described in MedLine abstracts. In the first part of the work, we develop a filtering module that allows the user to identify the sentences referring to gene interactions. The module is available on line and already used by biologists. The second part of the work introduces an original methodology based on an abstraction of the syntactic analysis for automatical learning of information extraction rules. The preliminary results are promising and show that our abstraction approach provides a good representation for learning extraction rules
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Vu, Viet-Vu. "Clustering semi-supervisé et apprentissage actif". Paris 6, 2011. http://www.theses.fr/2011PA066607.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Boyer, Laurent. "Apprentissage probabiliste de similarités d'édition". Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00718835.

Texto completo
Resumen
De nombreuses applications informatiques nécessitent l'utilisation de distances. Dans le cadre de données structurées, chaînes ou arbres, nous utilisons majoritairement la distance d'édition. Celle-ci correspond au nombre minimal d'opérations d'édition (insertion, délétion et substitution) nécessaire pour transformer la première donnée en la seconde. Suivant l'application traitée, il est possible de paramétrer la distance d'édition en associant à chaque opération d'édition un poids. Dans le cadre de ce manuscrit, nous proposons une technique d'apprentissage automatique supervisée pour apprendre les poids de la distance décrite précédemment. L'algorithme utilisé, appelé Expectation-Maximisation, maximise la vraisemblance des paramètres du modèle à l'aide d'un échantillon d'apprentissage composé de paires d'exemples considérés comme similaires. La première contribution de ce manuscrit est une extension de précédents travaux sur les chaînes aux arbres sous la forme de transducteur à un unique état. Nous montrons sur une tâche de reconnaissance de caractères manuscrits, l'efficacité de l'apprentissage par rapport à l'utilisation de poids non appris. La seconde est une approche sur les chaînes sous contraintes. Le modèle est représenté par un ensemble fini d'états dans lequel les transitions sont contraintes. Une contrainte est représentée par un ensemble fini de fonctions booléennes définies sur la chaîne d'entrée et une de ses positions. Nous utilisons notre modèle pour aborder une application de recherche de sites de facteur de transcription dans des séquences génomiques
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Pessiot, Jean-François. "Apprentissage automatique pour l'extraction de caractéristiques : application au partitionnement de documents, au résumé automatique et au filtrage collaboratif". Paris 6, 2008. http://www.theses.fr/2008PA066218.

Texto completo
Resumen
En apprentissage statistique, le choix de la représentation des données est crucial et a motivé le développement de méthodes permettant de modifier la représentation initiale des données. Dans cette thèse, nous étudions la problématique du choix de la représentation des données au travers de l'extraction de documents et le résumé automatique de texte. En extraction multi-tâches, nous proposons également des algorithmes d'apprentissage pour la régression et pour l'ordonnancement d'instances. Nous appliquons nos deux modèles au filtrage collaboratif, d'abord vu comme un problème de prédiction de notes, puis comme un problème de prédiction d'ordre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Le, Lann Marie-Véronique. "Commande prédictive et commande par apprentissage : étude d'une unité pilote d'extraction, optimisation par apprentissage". Toulouse, INPT, 1988. http://www.theses.fr/1988INPT023G.

Texto completo
Resumen
Presentation de deux algorithmes de commande adaptative a caractere predictif (commande predictive generalisee et commande predictive generalisee avec modeles de references) et leur application au controle monovariable de l'unite pilote. La commande monovariable a apprentissage est realisee a l'aide d'un seul automate, puis a l'aide d'une structure hierarchique. La commande multivariable (transfert de matiere et hydrodynamique) est effectuee selon trois schemas de commande : deux boucles de commande independantes ; deux boucles interconnectees, et une boucle a deux entrees deux sorties
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Burg, Bernard. "Apprentissage de règles de comportement destinées au contrôle d'un système". Paris 11, 1988. http://www.theses.fr/1988PA112375.

Texto completo
Resumen
Les systèmes de contrôle de processus sont confrontés à des applications de plus en plus complexes à appréhender. Il semble intéressant, par exemple dans le cadre de l'étude des phénomènes mal ou peu modélisés, d'avoir recours à des techniques d'informatique symbolique pour profiter de leur souplesse d'utilisation. Ainsi fut développé un système de contrôle de processus à base de règles de comportement, la principale difficulté consiste alors à acquérir ces règles. Sa résolution a nécessité l'utilisation conjointe de plusieurs techniques, respectivement les techniques numériques d'analyses de données pour débruiter et réduire la dimensionnalité de l'espace d'états, puis des techniques structurelles pour transcrire l'aspect temporel, modéliser les structures sous-jacentes et finalement des techniques d'apprentissage symbolique automatique pour trouver des regroupements conceptuels, généraliser et extrapoler les connaissances acquises. L'ensemble de ces techniques est mis en œuvre par des techniques d'intelligence artificielle analysant les résultats de chaque phase grâce à des critères généraux décrivant conceptuellement chaque technique, ses résultats escomptés et génère des plans d'actions pour guider l'apprentissage. Trois techniques d'apprentissage sont utilisées : la première part de points de mesure du phénomène qu'elle utilise dans une démarche inductive, elle confère une notion de complétude au jeu de règles. La seconde part d'un modèle flou du phénomène à contrôler qu'elle met en œuvre dans un apprentissage déductif, elle apporte la cohérence en intégrant les connaissances des experts. Enfin, les règles de comportement issues de ces approches sont utilisées et affinées dans un apprentissage en interaction avec l'environnement. Le programme CANDIDE a vu deux domaines d'application : le contrôle en vitesse d'un moteur en courant continu et la conduite automobile
Process control systems have to face applications which are always more ambitions and difficult to master. In some cases it is not easy to use conventional process control techniques. With the introduction of declarative methods it is possible to start in a pragmatic way and to set an implicit formulation of the problem when no explicit formulation is available. New mechanisms can be envisioned, and we conceived a rule based controller, then the difficulty remains on the design of the rule sets. To overcome this problem, we had to use jointly some learning techniques, such as data analysis to cope with noisy data and to project them into reduced space representations. Then structural techniques allow to modelise the temporal evolution of the process control and the hidden structures. Finally, artificial intelligence machine learning techniques discover the concepts and generalise the acquired knowledge. The whole technique set is supervised by artificial intelligence, it analyses the results issued from each learning step and planes the next action to perform. Three learning strategies are used: the first one starts from the data and uses inductive learning, it proves some completeness. The second one begins with a fuzzy model and acquires rules by deduction, it brings coherency via expert knowledge. Finally the behavior rules are used and refined by means of interaction with the environment. The learning program CANDIDE performed two case studies - the speed control of a DC motor the automatic driving of a car
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Lecerf, Loïc. "L' apprentissage machine pour assister l'annotation de documents : clustering visuel interactif, apprentissage actif et extraction automatique des descripteurs". Paris 6, 2009. http://www.theses.fr/2009PA066186.

Texto completo
Resumen
Ce mémoire porte sur l’apprentissage machine pour l’annotation. L’objectif de l’annotation est d’insérer une information additionnelle à un objet (e. G. Images, documents, vidéos, données biologiques, etc. ). Ces informations permettent une meilleure compréhension ou organisation de ces objets par une machine. Alors que l’annotation manuelle est le plus souvent coûteuse, les travaux récents de la littérature proposent d’utiliser les méthodes d’apprentissage machine pour automatiser la tâche d’annotation. L’apprentissage machine a connu une progression très importante et son application à l’annotation a montré expérimentalement son efficacité pour de nombreux domaines. Au cours de notre travail de thèse, nous avons cherché à faire évoluer l’apprentissage machine afin de rendre son utilisation plus facile (définition des descripteurs et élaboration du corpus d’apprentissage) ou plus flexible afin de permettre à un utilisateur de s’impliquer et guider le processus d’apprentissage machine. Dans la première partie de ce mémoire, nous introduisons l’apprentissage machine interactif. Nous proposons plusieurs approches dans lesquelles nous combinons des outils de visualisation scientifique à l’apprentissage machine. Ces approches se présentent comme une alternative à l’apprentissage automatique, particulièrement pertinente lorsque le coût d’annotation ou le coût d’erreur de prédiction est élevé et lorsque l’utilisateur possède des connaissances du domaine utiles pour guider l’apprentissage machine. Dans une deuxième partie de nos travaux, nous avons cherché à réduire le travail de définition des descripteurs. Nous avons d’une part étudié et amélioré les méthodes pour la sélection automatique de grands ensembles de descripteurs génériques, puis nous avons proposé une nouvelle approche pour la génération automatique de ces descripteurs pour des données de type séquentielle. Notre travail de thèse a été motivé par la tâche spécifique d’annotation sémantique de documents semi-structurés. Nos travaux ont été évalués expérimentalement sur des collections de documents mais aussi sur d’autres ensembles de données issues de domaines divers. De même, afin de vérifier la pertinence de nos méthodes, nous avons déployé un prototype pour l’annotation sémantique de documents par apprentissage actif, ainsi qu’une application Web, pour l’annotation interactive
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía