Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Méthodes d'apprentissage automatique multimodal.

Dissertationen zum Thema „Méthodes d'apprentissage automatique multimodal“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-45 Dissertationen für die Forschung zum Thema "Méthodes d'apprentissage automatique multimodal" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Labbé, Etienne. „Description automatique des événements sonores par des méthodes d'apprentissage profond“. Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES054.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine de l'audio, la majorité des systèmes d'apprentissage automatique se concentrent sur la reconnaissance d'un nombre restreint d'événements sonores. Cependant, lorsqu'une machine est en interaction avec des données réelles, elle doit pouvoir traiter des situations beaucoup plus variées et complexes. Pour traiter ce problème, les annotateurs ont recours au langage naturel, qui permet de résumer n'importe quelle information sonore. La Description Textuelle Automatique de l'Audio (DTAA ou Automated Audio Captioning en anglais) a été introduite récemment afin de développer des systèmes capables de produire automatiquement une description de tout type de son sous forme de texte. Cette tâche concerne toutes sortes d'événements sonores comme des sons environnementaux, urbains, domestiques, des bruitages, de la musique ou de parole. Ce type de système pourrait être utilisé par des personnes sourdes ou malentendantes, et pourrait améliorer l'indexation de grandes bases de données audio. Dans la première partie de cette thèse, nous présentons l'état de l'art de la tâche de DTAA au travers d'une description globale des jeux de données publics, méthodes d'apprentissage, architectures et métriques d'évaluation. À l'aide de ces connaissances, nous présentons ensuite l'architecture de notre premier système de DTAA, qui obtient des scores encourageants sur la principale métrique de DTAA nommée SPIDEr : 24,7 % sur le corpus Clotho et 40,1 % sur le corpus AudioCaps. Dans une seconde partie, nous explorons de nombreux aspects des systèmes de DTAA. Nous nous focalisons en premier lieu sur les méthodes d'évaluations au travers de l'étude de SPIDEr. Pour cela, nous proposons une variante nommée SPIDEr-max, qui considère plusieurs candidats pour chaque fichier audio, et qui montre que la métrique SPIDEr est très sensible aux mots prédits. Puis, nous améliorons notre système de référence en explorant différentes architectures et de nombreux hyper-paramètres pour dépasser l'état de l'art sur AudioCaps (SPIDEr de 49,5 %). Ensuite, nous explorons une méthode d'apprentissage multitâche visant à améliorer la sémantique des phrases générées par notre système. Enfin, nous construisons un système de DTAA généraliste et sans biais nommé CONETTE, pouvant générer différents types de descriptions qui se rapprochent de celles des jeux de données cibles. Dans la troisième et dernière partie, nous proposons d'étudier les capacités d'un système de DTAA pour rechercher automatiquement du contenu audio dans une base de données. Notre approche obtient des scores comparables aux systèmes dédiés à cette tâche, alors que nous utilisons moins de paramètres. Nous introduisons également des méthodes semi-supervisées afin d'améliorer notre système à l'aide de nouvelles données audio non annotées, et nous montrons comment la génération de pseudo-étiquettes peut impacter un modèle de DTAA. Enfin, nous avons étudié les systèmes de DTAA dans d'autres langues que l'anglais : français, espagnol et allemand. De plus, nous proposons un système capable de produire les quatre langues en même temps, et nous le comparons avec les systèmes spécialisés dans chaque langue
In the audio research field, the majority of machine learning systems focus on recognizing a limited number of sound events. However, when a machine interacts with real data, it must be able to handle much more varied and complex situations. To tackle this problem, annotators use natural language, which allows any sound information to be summarized. Automated Audio Captioning (AAC) was introduced recently to develop systems capable of automatically producing a description of any type of sound in text form. This task concerns all kinds of sound events such as environmental, urban, domestic sounds, sound effects, music or speech. This type of system could be used by people who are deaf or hard of hearing, and could improve the indexing of large audio databases. In the first part of this thesis, we present the state of the art of the AAC task through a global description of public datasets, learning methods, architectures and evaluation metrics. Using this knowledge, we then present the architecture of our first AAC system, which obtains encouraging scores on the main AAC metric named SPIDEr: 24.7% on the Clotho corpus and 40.1% on the AudioCaps corpus. Then, subsequently, we explore many aspects of AAC systems in the second part. We first focus on evaluation methods through the study of SPIDEr. For this, we propose a variant called SPIDEr-max, which considers several candidates for each audio file, and which shows that the SPIDEr metric is very sensitive to the predicted words. Then, we improve our reference system by exploring different architectures and numerous hyper-parameters to exceed the state of the art on AudioCaps (SPIDEr of 49.5%). Next, we explore a multi-task learning method aimed at improving the semantics of sentences generated by our system. Finally, we build a general and unbiased AAC system called CONETTE, which can generate different types of descriptions that approximate those of the target datasets. In the third and last part, we propose to study the capabilities of a AAC system to automatically search for audio content in a database. Our approach obtains competitive scores to systems dedicated to this task, while using fewer parameters. We also introduce semi-supervised methods to improve our system using new unlabeled audio data, and we show how pseudo-label generation can impact a AAC model. Finally, we studied the AAC systems in languages other than English: French, Spanish and German. In addition, we propose a system capable of producing all four languages at the same time, and we compare it with systems specialized in each language
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Liu, Li. „Modélisation pour la reconnaissance continue de la langue française parlée complétée à l'aide de méthodes avancées d'apprentissage automatique“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT057/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse de doctorat traite de la reconnaissance automatique du Langage français Parlé Complété (LPC), version française du Cued Speech (CS), à partir de l’image vidéo et sans marquage de l’information préalable à l’enregistrement vidéo. Afin de réaliser cet objectif, nous cherchons à extraire les caractéristiques de haut niveau de trois flux d’information (lèvres, positions de la main et formes), et fusionner ces trois modalités dans une approche optimale pour un système de reconnaissance de LPC robuste. Dans ce travail, nous avons introduit une méthode d’apprentissage profond avec les réseaux neurono convolutifs (CNN)pour extraire les formes de main et de lèvres à partir d’images brutes. Un modèle de mélange de fond adaptatif (ABMM) est proposé pour obtenir la position de la main. De plus, deux nouvelles méthodes nommées Modified Constraint Local Neural Fields (CLNF Modifié) et le model Adaptive Ellipse Model ont été proposées pour extraire les paramètres du contour interne des lèvres (étirement et ouverture aux lèvres). Le premier s’appuie sur une méthode avancée d’apprentissage automatique (CLNF) en vision par ordinateur. Toutes ces méthodes constituent des contributions significatives pour l’extraction de caractéristiques du LPC. En outre, en raison de l’asynchronie des trois flux caractéristiques du LPC, leur fusion est un enjeu important dans cette thèse. Afin de le résoudre, nous avons proposé plusieurs approches, y compris les stratégies de fusion au niveau données et modèle avec une modélisation HMM dépendant du contexte. Pour obtenir le décodage, nous avons proposé trois architectures CNNs-HMMs. Toutes ces architectures sont évaluées sur un corpus de phrases codées en LPC en parole continue sans aucun artifice, et la performance de reconnaissance CS confirme l’efficacité de nos méthodes proposées. Le résultat est comparable à l’état de l’art qui utilisait des bases de données où l’information pertinente était préalablement repérée. En même temps, nous avons réalisé une étude spécifique concernant l’organisation temporelle des mouvements de la main, révélant une avance de la main en relation avec l’emplacement dans la phrase. En résumé, ce travail de doctorat propose les méthodes avancées d’apprentissage automatique issues du domaine de la vision par ordinateur et les méthodologies d’apprentissage en profondeur dans le travail de reconnaissance CS, qui constituent un pas important vers le problème général de conversion automatique de CS en parole audio
This PhD thesis deals with the automatic continuous Cued Speech (CS) recognition basedon the images of subjects without marking any artificial landmark. In order to realize thisobjective, we extract high level features of three information flows (lips, hand positions andshapes), and find an optimal approach to merging them for a robust CS recognition system.We first introduce a novel and powerful deep learning method based on the ConvolutionalNeural Networks (CNNs) for extracting the hand shape/lips features from raw images. Theadaptive background mixture models (ABMMs) are also applied to obtain the hand positionfeatures for the first time. Meanwhile, based on an advanced machine learning method Modi-fied Constrained Local Neural Fields (CLNF), we propose the Modified CLNF to extract theinner lips parameters (A and B ), as well as another method named adaptive ellipse model. Allthese methods make significant contributions to the feature extraction in CS. Then, due tothe asynchrony problem of three feature flows (i.e., lips, hand shape and hand position) in CS,the fusion of them is a challenging issue. In order to resolve it, we propose several approachesincluding feature-level and model-level fusion strategies combined with the context-dependentHMM. To achieve the CS recognition, we propose three tandem CNNs-HMM architectureswith different fusion types. All these architectures are evaluated on the corpus without anyartifice, and the CS recognition performance confirms the efficiency of our proposed methods.The result is comparable with the state of the art using the corpus with artifices. In parallel,we investigate a specific study about the temporal organization of hand movements in CS,especially about its temporal segmentation, and the evaluations confirm the superior perfor-mance of our methods. In summary, this PhD thesis applies the advanced machine learningmethods to computer vision, and the deep learning methodologies to CS recognition work,which make a significant step to the general automatic conversion problem of CS to sound.The future work will mainly focus on an end-to-end CNN-RNN system which incorporates alanguage model, and an attention mechanism for the multi-modal fusion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Drosouli, Ifigeneia. „Multimodal machine learning methods for pattern analysis in smart cities and transportation“. Electronic Thesis or Diss., Limoges, 2024. http://www.theses.fr/2024LIMO0028.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte des environnements urbains modernes et densément peuplés, la gestion efficace des transports et la structure des Systèmes de Transport Intelligents (STI) sont primordiales. Le secteur des transports publics connaît actuellement une expansion et une transformation significatives dans le but d'améliorer l'accessibilité, d'accommoder des volumes de passagers plus importants sans compromettre la qualité des déplacements, et d'adopter des pratiques respectueuses de l'environnement et durables. Les avancées technologiques, notamment dans l'Intelligence Artificielle (IA), l'Analyse de Données Massives (BDA), et les Capteurs Avancés (CA), ont joué un rôle essentiel dans la réalisation de ces objectifs et ont contribué au développement, à l'amélioration et à l'expansion des Systèmes de Transport Intelligents. Cette thèse aborde deux défis critiques dans le domaine des villes intelligentes, se concentrant spécifiquement sur l'identification des modes de transport utilisés par les citoyens à un moment donné et sur l'estimation et la prédiction du flux de transport au sein de divers systèmes de transport. Dans le contexte du premier défi, deux approches distinctes ont été développées pour la Détection des Modes de Transport. Tout d'abord, une approche d'apprentissage approfondi pour l'identification de huit médias de transport est proposée, utilisant des données de capteurs multimodaux collectées à partir des smartphones des utilisateurs. Cette approche est basée sur un réseau Long Short-Term Memory (LSTM) et une optimisation bayésienne des paramètres du modèle. À travers une évaluation expérimentale approfondie, l'approche proposée démontre des taux de reconnaissance remarquablement élevés par rapport à diverses approches d'apprentissage automatique, y compris des méthodes de pointe. La thèse aborde également des problèmes liés à la corrélation des caractéristiques et à l'impact de la réduction de la dimensionnalité. La deuxième approche implique un modèle basé sur un transformateur pour la détection des modes de transport appelé TMD-BERT. Ce modèle traite l'ensemble de la séquence de données, comprend l'importance de chaque partie de la séquence d'entrée, et attribue des poids en conséquence en utilisant des mécanismes d'attention pour saisir les dépendances globales dans la séquence. Les évaluations expérimentales mettent en évidence les performances exceptionnelles du modèle par rapport aux méthodes de pointe, soulignant sa haute précision de prédiction. Pour relever le défi de l'estimation du flux de transport, un Réseau Convolutif Temporel et Spatial (ST-GCN) est proposé. Ce réseau apprend à la fois des données spatiales du réseau de stations et des séries temporelles des changements de mobilité historiques pour prédire le flux de métro urbain et le partage de vélos à un moment futur. Le modèle combine des Réseaux Convolutifs Graphiques (GCN) et des Réseaux Long Short-Term Memory (LSTM) pour améliorer la précision de l'estimation. Des expériences approfondies menées sur des ensembles de données du monde réel du système de métro de Hangzhou et du système de partage de vélos de la ville de New York valident l'efficacité du modèle proposé, démontrant sa capacité à identifier des corrélations spatiales dynamiques entre les stations et à faire des prévisions précises à long terme
In the context of modern, densely populated urban environments, the effective management of transportation and the structure of Intelligent Transportation Systems (ITSs) are paramount. The public transportation sector is currently undergoing a significant expansion and transformation with the objective of enhancing accessibility, accommodating larger passenger volumes without compromising travel quality, and embracing environmentally conscious and sustainable practices. Technological advancements, particularly in Artificial Intelligence (AI), Big Data Analytics (BDA), and Advanced Sensors (AS), have played a pivotal role in achieving these goals and contributing to the development, enhancement, and expansion of Intelligent Transportation Systems. This thesis addresses two critical challenges within the realm of smart cities, specifically focusing on the identification of transportation modes utilized by citizens at any given moment and the estimation and prediction of transportation flow within diverse transportation systems. In the context of the first challenge, two distinct approaches have been developed for Transportation Mode Detection. Firstly, a deep learning approach for the identification of eight transportation media is proposed, utilizing multimodal sensor data collected from user smartphones. This approach is based on a Long Short-Term Memory (LSTM) network and Bayesian optimization of model’s parameters. Through extensive experimental evaluation, the proposed approach demonstrates remarkably high recognition rates compared to a variety of machine learning approaches, including state-of-the-art methods. The thesis also delves into issues related to feature correlation and the impact of dimensionality reduction. The second approach involves a transformer-based model for transportation mode detection named TMD-BERT. This model processes the entire sequence of data, comprehends the importance of each part of the input sequence, and assigns weights accordingly using attention mechanisms to grasp global dependencies in the sequence. Experimental evaluations showcase the model's exceptional performance compared to state-of-the-art methods, highlighting its high prediction accuracy. In addressing the challenge of transportation flow estimation, a Spatial-Temporal Graph Convolutional Recurrent Network is proposed. This network learns from both the spatial stations network data and time-series of historical mobility changes to predict urban metro and bike sharing flow at a future time. The model combines Graph Convolutional Networks (GCN) and Long Short-Term Memory (LSTM) Networks to enhance estimation accuracy. Extensive experiments conducted on real-world datasets from the Hangzhou metro system and the NY City bike sharing system validate the effectiveness of the proposed model, showcasing its ability to identify dynamic spatial correlations between stations and make accurate long-term forecasts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Jacques, Céline. „Méthodes d'apprentissage automatique pour la transcription automatique de la batterie“. Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS150.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se concentre sur les méthodes d’apprentissage pour la transcription automatique de la batterie. Elles sont basées sur un algorithme de transcription utilisant une méthode de décomposition non-négative, la NMD. Cette thèse soulève deux principales problématiques : l’adaptation des méthodes au signal analysé et l’utilisation de l’apprentissage profond. La prise en compte des informations du signal analysé dans le modèle peut être réalisée par leur introduction durant les étapes de décomposition. Une première approche est de reformuler l’étape de décomposition dans un contexte probabiliste pour faciliter l’introduction d’informations a posteriori avec des méthodes comme la SI-PLCA et la NMD statistique. Une deuxième approche est d’implémenter directement dans la NMD une stratégie d’adaptation : l’application de filtres modelables aux motifs pour modéliser les conditions d’enregistrement ou l’adaptation des motifs appris directement au signal en appliquant de fortes contraintes pour conserver leur signification physique. La deuxième approche porte sur la sélection des segments de signaux à analyser. Il est préférable d’analyser les segments où au moins un événement percussif a lieu. Un détecteur d’onsets basé sur un réseau de neurones convolutif (CNN) est adapté pour détecter uniquement les onsets percussifs. Les résultats obtenus étant très intéressants, le détecteur est entraîné à ne détecter qu’un seul instrument permettant la réalisation de la transcription des trois principaux instruments de batterie avec trois CNN. Finalement, l’utilisation d’un CNN multi-sorties est étudiée pour transcrire la partie de batterie avec un seul réseau
This thesis focuses on learning methods for automatic transcription of the battery. They are based on a transcription algorithm using a non-negative decomposition method, NMD. This thesis raises two main issues: the adaptation of methods to the analyzed signal and the use of deep learning. Taking into account the information of the signal analyzed in the model can be achieved by their introduction during the decomposition steps. A first approach is to reformulate the decomposition step in a probabilistic context to facilitate the introduction of a posteriori information with methods such as SI-PLCA and statistical NMD. A second approach is to implement an adaptation strategy directly in the NMD: the application of modelable filters to the patterns to model the recording conditions or the adaptation of the learned patterns directly to the signal by applying strong constraints to preserve their physical meaning. The second approach concerns the selection of the signal segments to be analyzed. It is best to analyze segments where at least one percussive event occurs. An onset detector based on a convolutional neural network (CNN) is adapted to detect only percussive onsets. The results obtained being very interesting, the detector is trained to detect only one instrument allowing the transcription of the three main drum instruments with three CNNs. Finally, the use of a CNN multi-output is studied to transcribe the part of battery with a single network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Condevaux, Charles. „Méthodes d'apprentissage automatique pour l'analyse de corpus jurisprudentiels“. Thesis, Nîmes, 2021. http://www.theses.fr/2021NIME0008.

Der volle Inhalt der Quelle
Annotation:
Les décisions de justice contiennent des informations déterministes (dont le contenu est récurrent d'une décision à une autre) et des informations aléatoires (à caractère probabiliste). Ces deux types d'information rentrent en ligne de compte dans la prise de décision d’un juge. Les premières peuvent la conforter dans la mesure où l’information déterministe est un élément récurrent et bien connu de la jurisprudence (i.e. des résultats d’affaires passées). Les secondes, apparentées à des caractères rares ou exceptionnels, peuvent rendre la prise de décision difficile et peuvent elles-mêmes modifier la jurisprudence. L’objet de cette thèse est de proposer un modèle d’apprentissage profond mettant en évidence ces deux types d’information afin d’en étudier leur impact (contribution) dans la prise de décision d’un juge. L'objectif est d’analyser des décisions similaires, de mettre en évidence les informations aléatoires et déterministes dans un corpus de décisions et de quantifier leur importance dans le processus de jugement
Judicial decisions contain deterministic information (whose content is recurrent from one decision to another) and random information (probabilistic). Both types of information come into play in a judge's decision-making process. The former can reinforce the decision insofar as deterministic information is a recurring and well-known element of case law (ie past business results). The latter, which are related to rare or exceptional characters, can make decision-making difficult, since they can modify the case law. The purpose of this thesis is to propose a deep learning model that would highlight these two types of information and study their impact (contribution) in the judge’s decision-making process. The objective is to analyze similar decisions in order to highlight random and deterministic information in a body of decisions and quantify their importance in the judgment process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Théveniaut, Hugo. „Méthodes d'apprentissage automatique et phases quantiques de la matière“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30228.

Der volle Inhalt der Quelle
Annotation:
Mon travail de thèse s'est articulé autour de trois manières d'utiliser les méthodes d'apprentissage automatique (machine learning) en physique de la matière condensée. Premièrement, j'expliquerai comment il est possible de détecter automatiquement des transitions de phase en reformulant cette tâche comme un problème de classification d'images. J'ai testé la fiabilité et relevé les limites de cette approche dans des modèles présentant des phases localisées à N corps (many-body localized - MBL) en dimension 1 et en dimension 2. Deuxièmement, j'introduirai une représentation variationnelle d'états fondamentaux sous la forme de réseaux de neurones (neural-network quantum states - NQS). Je présenterai nos résultats sur un modèle contraint de bosons de coeur dur en deux dimensions avec des méthodes variationnelles basées sur des NQS et de projection guidée. Nos travaux montrent notamment que les états NQS peuvent encoder avec précision des états solides et liquides de bosons. Enfin, je présenterai une nouvelle approche pour la recherche de stratégies de corrections d'erreur dans les codes quantiques, cette approche se base sur les techniques utilisées pour concevoir l'intelligence artificielle AlphaGo. Nous avons pu montrer que des stratégies efficaces peuvent être découvertes avec des algorithmes d'optimisation évolutionnistes. En particulier, nous avons observé que des réseaux de neurones peu profonds sont compétitifs avec les réseaux profonds utilisés dans des travaux antérieurs, représentant un gain d'un facteur 10000 en termes de nombre de paramètres
My PhD thesis presents three applications of machine learning to condensed matter theory. Firstly, I will explain how the problem of detecting phase transitions can be rephrased as an image classification task, paving the way to the automatic mapping of phase diagrams. I tested the reliability of this approach and showed its limits for models exhibiting a many-body localized phase in 1 and 2 dimensions. Secondly, I will introduce a variational representation of quantum many-body ground-states in the form of neural-networks and show our results on a constrained model of hardcore bosons in 2d using variational and projection methods. In particular, we confirmed the phase diagram obtained independently earlier and extends its validity to larger system sizes. Moreover we also established the ability of neural-network quantum states to approximate accurately solid and liquid bosonic phases of matter. Finally, I will present a new approach to quantum error correction based on the same techniques used to conceive the best Go game engine. We showed that efficient correction strategies can be uncovered with evolutionary optimization algorithms, competitive with gradient-based optimization techniques. In particular, we found that shallow neural-networks are competitive with deep neural-networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Qiu, Danny. „Nouvelles méthodes d'apprentissage automatique pour la planification des réseaux mobiles“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS010.

Der volle Inhalt der Quelle
Annotation:
La connectivité mobile est un moteur important de nos sociétés, c'est pourquoi l'usage des données mobiles n'a cessé de croître à travers le monde. Pour éviter la saturation, les opérateurs mobiles sont amenés à faire évoluer leurs réseaux. Les réseaux mobiles sont renforcés grâce à l'installation de nouvelles stations de base et antennes. Ce chantier étant très coûteux, une grande attention est accordée à l'identification des déploiements les plus rentables et permettant d'être compétitif. L'objectif de la thèse est d'utiliser apprentissage automatique pour proposer des solutions améliorant les décisions de déploiement. Le premier volet de la thèse est consacré au développement de modèles d'apprentissage pour assister le déploiement des stations de base sur de nouveaux emplacements. En l'absence de connaissance réseau d'une zone non couverte, les modèles sont entraînés en s'appuyant entièrement sur des données du tissu urbain. Au départ, les prédictions consistaient simplement à estimer la classe d'activité majoritaire d'une station de base. Par la suite, ces travaux ont été étendus pour prédire le profil horaire type de l'affluence hebdomadaire. Les temps d'entraînement parfois longs ont conduit à analyser plusieurs méthodes de réduction de données mobiles. Le deuxième volet de la thèse est consacré au déploiement de nouvelles cellules sur des sites existants afin d'augmenter leur capacité. Pour cela, un modèle de couverture cellulaire a été mis au point en dérivant le diagramme de Voronoi modélisant la couverture des stations de base. La première étude a porté sur la réutilisation de fréquences de générations technologiques antérieures pour les générations les plus récentes. Les modèles entraînés ont pour objectif d'aider à prioriser les ajouts capacitifs sur les secteurs pouvant bénéficier de la plus forte amélioration de la disponibilité des ressources. La deuxième étude a porté sur l'ajout d'une nouvelle génération de réseau en considérant deux axes de déploiement: priorisation de la rentabilité ou de l'amélioration de la qualité de service. Ainsi, les méthodes développées par cette thèse visent à s'intégrer dans un outil de géo-marketing, en proposant des modèles pouvant prédire la demande de connectivité d'un territoire ainsi que son évolution. Ces informations pourront également servir à rendre le dimensionnement des réseaux plus précis
Mobile connectivity is an important driver of our societies, which is why mobile data consumption has continued to grow steadily worldwide. To avoid global congestion, mobile network operators are bound to evolve their networks.Mobile networks are strengthened through the deployment of new base stations and antennas. As this task is very expensive, a great attention is given to identifying cost-effective and competitive deployments.In this context, the objective of this thesis is to use machine learning to improve deployment decisions.The first part of the thesis is dedicated to developing machine learning models to assist in the deployment of base stations in new locations. Assuming that network knowledge for an uncovered area is unavailable, the models are trained solely on urban fabric features.At first, models were simply trained to estimate the class of major activity of a base station.Subsequently, this work was extended to predict the typical hourly profile of weekly traffic. Since the train time could be long, several methods for reducting mobile data have been studied.The second part of the thesis focuses on the deployment of new cells to increase the capacity of existing sites. For this purpose, a cell coverage model was developed by deriving the Voronoi diagram representing the coverage of base stations.The first study examined the spectrum refarming of former generations of mobile technology for the deployment of the newest generations.Models are trained to assist in prioritizing capacity additions on sectors that can benefit from the greatest improvement in resource availability.The second study examined the deployment of a new generation of mobile technology, considering two deployment strategies: driven by profitability or by the improvement of the quality of service.Therefore, the methods developed in this thesis offer ways to train models to predict the connectivity demand of a territory as well as its evolution. These models could be integrated into a geo-marketing tool, as well as providing useful information for network dimensioning
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Kopinski, Thomas. „Méthodes d'apprentissage pour l'interaction homme-machine“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour but d'améliorer la tâche de reconnaître des gestes de main en utilisant des techniques d'apprentissage par ordinateur et de traitement du signal. Les principales contributions de la thèse sont dédiés à la théorie de l'apprentissage par ordinateur et à l'interaction homme-machine. L'objectif étant d'implanter toutes méthodes en temps réel, toute méthode employé au cours de cette thèse était un compromis entre puissance et temps de calcul nécessaire.Plusieurs pistes ont été poursuivi : au début, la fusion des informations fournies par plusieurs capteurs tu type « time-of-flight » a été étudiée, dans le but d'améliorer le taux de reconnaissances correctes par rapport au cas avec un seul capteur. En particulier, l'impact des différentes caractéristiques calculés à partir d'une nuage de points, et de ses paramètres, a été évalué. Egalement, la performance des réseaux multi-couches (MLP) à été comparé avec celle d'un séparateur à vaste marge (SVM).En s'appuyant sur ces résultats, l'implantation du système dans une voiture a eté effectuée. Tout d'abord, nous avons montré que le système n'est pas du tout gêné par le fait d'être exposé aux conditions d'éclairage « outdoor ». L'extension de la base d'entraînement et une modification des caractéristiques calculé de la nuage des points a pu augmenter le taux de bonnes reconnaissances de façon très significative, ainsi que le rajout des mesures de confiance à la classification.Afin d'améliorer la performance des classifieurs à la base des réseaux multi-couche (MLP), une nouvelle méthode assez simple a été mise au point ensuite. Cette méthode met au profit des informations déjà présentes dans la dernière couche du réseau. En combinant cette nouvelle approche avec une technique de fusion, le taux de bonnes reconnaissances est amélioré, et surtout pour le cas des échantillons « difficiles ». Ces résultats ont été analysés et comparés de façon approfondie en comparant des différentes possibilités de fusion dans un tel contexte. L'exploitation du fait que les données traitées dont des séquences, et qu'il y a par conséquent une cohérence temporelle dans des échantillons successifs, a également été abordée un utilisant les mêmes techniques de fusion. Un système de « infotainment » implanté sur un smartphone, qui utilise les techniques décrites ici, a également été réalisé.Dans un dernier temps, un modèle simplifié de la reconnaissance des gestes dynamiques a été proposé et validé dans un contexte applicatif. Il a été montré que un geste peut être défini de façon assez robuste par une pose initiale et une pose finale, qui sont classé par le système décrit ci-dessus
This thesis aims at improving the complex task of hand gesture recognition by utilizing machine learning techniques to learn from features calculated from 3D point cloud data. The main contributions of this work are embedded in the domains of machine learning and in the human-machine interaction. Since the goal is to demonstrate that a robust real-time capable system can be set up which provides a supportive means of interaction, the methods researched have to be light-weight in the sense that descriptivity balances itself with the calculation overhead needed to, in fact, remain real-time capable. To this end several approaches were tested:Initially the fusion of multiple ToF-sensors to improve the overall recognition rate was researched. It is examined, how employing more than one sensor can significantly boost recognition results in especially difficult cases and get a first grasp on the influence of the descriptors for this task as well as the influence of the choice of parameters on the calculation of the descriptor. The performance of MLPs with standard parameters is compared with the performance of SVMs for which the parameters have been obtained via grid search.Building on these results, the integration of the system into the car interior is shown. It is demonstrated how such a system can easily be integrated into an outdoor environment subject to strongly varying lighting conditions without the need for tedious calibration procedures. Furthermore the introduction of a modified light-weight version of the descriptor coupled with an extended database significantly boosts the frame rate for the whole recognition pipeline. Lastly the introduction of confidence measures for the output of the MLPs allows for more stable classification results and gives an insight on the innate challenges of this multiclass problem in general.In order to improve the classification performance of the MLPs without the need for sophisticated algorithm design or extensive parameter search a simple method is proposed which makes use of the existing recognition routines by exploiting information already present in the output neurons of the MLPs. A simple fusion technique is proposed which combines descriptor features with neuron confidences coming from a previously trained net and proves that augmented results can be achieved in nearly all cases for problem classes and individuals respectively.These findings are analyzed in-depth on a more theoretical scale by comparing the effectiveness of learning solely on neural activities in the output layer with the previously introduced fusion approach. In order to take into account temporal information, the thesis describes a possible approach on how to exploit the fact that we are dealing with a problem within which data is processed in a sequential manner and therefore problem-specific information can be taken into account. This approach classifies a hand pose by fusing descriptor features with neural activities coming from previous time steps and lays the ground work for the following section of making the transition towards dynamic hand gestures. Furthermore an infotainment system realized on a mobile device is introduced and coupled with the preprocessing and recognition module which in turn is integrated into an automotive setting demonstrating a possible testing environment for a gesture recognition system.In order to extend the developed system to allow for dynamic hand gesture interaction a simplified approach is proposed. This approach demonstrates that recognition of dynamic hand gesture sequences can be achieved with the simple definition of a starting and an ending pose based on a recognition module working with sufficient accuracy and even allowing for relaxed restrictions in terms of defining the parameters for such a sequence
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Saldana, Miranda Diego. „Méthodes d'apprentissage automatique pour l'aide à la formulation : Carburants Alternatifs pour l'Aéronautique“. Paris 6, 2013. http://www.theses.fr/2013PA066346.

Der volle Inhalt der Quelle
Annotation:
Les carburants alternatifs et les biocarburants représentent une réponse viable et intéressante aux problèmes liés à l’utilisation des carburants conventionnels pour le transport. Un aspect nouveau des carburants alternatifs est le fait que la gamme des composés chimiques est importante en raison de la diversité de leurs origines. Cet aspect ouvre la possibilité de créer des « carburants personnalisés », dont les compositions chimiques sont ajustées aux spécifications des carburants conventionnels. Dans ce contexte, il est intéressant de développer des méthodes prédictives nous permettant d’estimer les propriétés physico-chimiques d’un carburant en se basant seulement sur sa composition chimique et les structures de ses composants. Dans cette thèse, nous avons évalué l’application des méthodes d’apprentissage automatique à l’estimation de propriétés telles que le point d’éclair, enthalpie de combustion, point de fusion, indice de cétane, masse volumique et viscosité d'hydrocarbures et composés oxygénés présent dans les biocarburants. Dans la première étape, des modèles d’apprentissage automatique des propriétés des corps purs ont été développés. Dans la deuxième étape nous avons traité les mélanges, deux approches ont été développées : (1) l’application directe des méthodes d’apprentissage automatique aux données des mélanges ; (2) combiner les prédictions des modèles développés pour les corps purs avec des règles de mélange. Il a été constaté que les méthodes d’apprentissage automatique, en particulier les machines à vecteur de support, représentent une voie efficace pour la mise en place de modèles précis et robustes. D'autre part, en absence de données suffisamment nombreuses ou représentatives, l’utilisation de règles de mélange en combinaison avec l’apprentissage automatique pour décrire les propriétés corps purs est une option viable. De façon générale, un nombre de méthodes prédictives de propriétés, précises, robustes et rapides ont été développées dans le but de guider la formulation des carburants alternatifs
Alternative fuels and biofuels are a viable and attractive answer to problems associated to the current widespread use of conventional fuels in vehicles. One interesting aspect of alternative fuels is that the range of possible chemical compounds is large due to their diverse biological origins. This aspect opens up the possibility of creating “designer fuels”, whose chemical compositions are tailored to the specifications of the fuel being replaced. In this regard, it would be interesting to develop accurate predictive methods capable of instantaneously estimating a fuel’s physico-chemical properties based solely on its chemical composition and structures of its components. In this PhD work, we have investigated the application of machine learning methods to estimate properties such as flash point, enthalpy of combustion, melting point, cetane number, density and viscosity for families of compounds and mixtures similar to those found in biofuels: hydrocarbons and oxygenated compounds. During the first part of this work, machine learning models of pure compound properties were developed. During the second part mixtures have been examinated, two types of approaches were investigated: (1) the direct application of machine learning methods to mixture property data; (2) the use of the previously developed pure compound property models in combination with theoretically based mixing rules. It was found that machine learning methods, especially support vector machine methods, were an effective way of creating accurate and robust models. It was further found that, in the absence of sufficiently large or representative datasets, the use of mixing rules in combination with machine learning is a viable option. Overall, a number of accurate, robust and fast property estimation methods have been developed as a means to guide the formulation of alternative fuels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Dupas, Rémy. „Apport des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance industrielle“. Valenciennes, 1990. https://ged.uphf.fr/nuxeo/site/esupversions/7ab53b01-cdfb-4932-ba60-cb5332e3925a.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'étude des méthodes d'apprentissages symbolique automatique en vue de leurs applications dans le domaine de la maintenance industrielle. Plus précisément, l'apport des méthodes d'apprentissage inductives basées sur la recherche de similarités entre exemples est envisagé à deux niveaux distincts. Le premier niveau concerne le domaine de la maintenance corrective. L'approche présentée aborde le développement et la mise en œuvre d'un module d'acquisition automatique de connaissance de surface pour le système expert de diagnostic technique Sediag. Ce module basé sur l'utilisation du système inductif Charade, engendre un système de règles à partir des informations mémorisées au cours des sessions de diagnostic antérieures. Le second niveau d'aide, relatif à la maintenance préventive aborde la conception d'un système à base de connaissance dédié à l'exploitation de la base de données des historiques de maintenance. Cette approche repose sur l'association de deux types de connaissances. Le premier est la connaissance induite par le module d'apprentissage à partir de la base de données. La connaissance générale d'experts en maintenance préventive constitue le second type de connaissance utilisé. Le système ainsi réalisé permet d'automatiser l'exploitation des historiques de maintenance et de fournir des conseils de prévention dont l'objectif est d'accroitre l'efficacité de cette maintenance. Enfin, est proposée une architecture intégrée de système à base de connaissance utilisant des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance corrective et préventive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Vu, Hien Duc. „Adaptation des méthodes d'apprentissage automatique pour la détection de défauts d'arc électriques“. Electronic Thesis or Diss., Université de Lorraine, 2019. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2019_0152_VU.pdf.

Der volle Inhalt der Quelle
Annotation:
La détection des arcs électriques se produisant dans un réseau électrique par des approches d’apprentissage représente le cœur des travaux exposés dans cette thèse. Le problème a d’abord été vu comme la classification de séries temporelles à taille fixe en deux classes: normal et défaut. Cette première partie s’appuie sur les travaux de la littérature où les algorithmes de détection sont organisés principalement sur une étape de transformation des signaux acquis sur le réseau, suivie d’une étape d’extraction de caractéristiques descriptives et enfin d’une étape de décision. L’approche multicritères adoptée ici a pour objectif de répondre aux imprécisions systématiquement constatées. Une méthodologie de sélection des meilleures combinaisons et de transformation et de descripteurs a été proposée en exploitant des solutions d’apprentissage. La mise au point de descripteurs pertinents étant toujours difficile, l'évaluation des possibilités offertes par l'apprentissage profond a également été étudiée. Dans une seconde phase l’étude a porté sur les aspects variables dans le temps de la détection de défaut. Deux voies statistiques de décision ont été explorées l’une basée sur le test de probabilités séquentiel (SPRT) l’autre basée sur les réseaux de neurones artificiels LSTM (Long Short Time Memory Network) chacune de ces deux méthodes exploite à sa manière la durée d’une première étape de classification comprise entre 0 et 1 (normal, défaut). La décision par SPRT utilise une intégration de la classification initiale. LSTM apprend à classer des données à temps variable. Les résultats du réseau LSTM sont très prometteurs, il reste néanmoins quelques points à approfondir. L’ensemble de ces travaux s’appuie sur des expérimentations avec des données les plus complètes et les plus large possible sur le domaine des réseaux alternatifs 230V dans un contexte domestique et industriel. La précision obtenue approche les 100% dans la majorité des situations
The detection of electric arcs occurring in an electrical network by machine learning approaches represents the heart of the work presented in this thesis. The problem was first considered as a classification of fixed-size time series with two classes: normal and default. This first part is based on the work of the literature where the detection algorithms are organized mainly on a step of the transformation of the signals acquired on the network, followed by a step of extraction of descriptive characteristics and finally a step of decision. The multi-criteria approach adopted here aims to respond to systematic classification errors. A methodology for selecting the best combinations, transformation, and descriptors has been proposed by using learning solutions. As the development of relevant descriptors is always difficult, differents solutions offered by deep learning has also been studied. In a second phase, the study focused on the variable aspects in time of the fault detection. Two statistical decision paths have been explored, one based on the sequential probabilistic test (SPRT) and the other based on artificial neural networks LSTM (Long Short Time Memory Network). Each of these two methods exploits in its way the duration a first classification step between 0 and 1 (normal, default). The decision by SPRT uses an integration of the initial classification. LSTM learns to classify data with variable time. The results of the LSTM network are very promising, but there are a few things to explore. All of this work is based on experiments with the most complete and broadest possible data on the field of 230V alternative networks in a domestic and industrial context. The accuracy obtained is close to 100% in the majority of situations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Kopinski, Thomas. „Méthodes d'apprentissage pour l'interaction homme-machine“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY002/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour but d'améliorer la tâche de reconnaître des gestes de main en utilisant des techniques d'apprentissage par ordinateur et de traitement du signal. Les principales contributions de la thèse sont dédiés à la théorie de l'apprentissage par ordinateur et à l'interaction homme-machine. L'objectif étant d'implanter toutes méthodes en temps réel, toute méthode employé au cours de cette thèse était un compromis entre puissance et temps de calcul nécessaire.Plusieurs pistes ont été poursuivi : au début, la fusion des informations fournies par plusieurs capteurs tu type « time-of-flight » a été étudiée, dans le but d'améliorer le taux de reconnaissances correctes par rapport au cas avec un seul capteur. En particulier, l'impact des différentes caractéristiques calculés à partir d'une nuage de points, et de ses paramètres, a été évalué. Egalement, la performance des réseaux multi-couches (MLP) à été comparé avec celle d'un séparateur à vaste marge (SVM).En s'appuyant sur ces résultats, l'implantation du système dans une voiture a eté effectuée. Tout d'abord, nous avons montré que le système n'est pas du tout gêné par le fait d'être exposé aux conditions d'éclairage « outdoor ». L'extension de la base d'entraînement et une modification des caractéristiques calculé de la nuage des points a pu augmenter le taux de bonnes reconnaissances de façon très significative, ainsi que le rajout des mesures de confiance à la classification.Afin d'améliorer la performance des classifieurs à la base des réseaux multi-couche (MLP), une nouvelle méthode assez simple a été mise au point ensuite. Cette méthode met au profit des informations déjà présentes dans la dernière couche du réseau. En combinant cette nouvelle approche avec une technique de fusion, le taux de bonnes reconnaissances est amélioré, et surtout pour le cas des échantillons « difficiles ». Ces résultats ont été analysés et comparés de façon approfondie en comparant des différentes possibilités de fusion dans un tel contexte. L'exploitation du fait que les données traitées dont des séquences, et qu'il y a par conséquent une cohérence temporelle dans des échantillons successifs, a également été abordée un utilisant les mêmes techniques de fusion. Un système de « infotainment » implanté sur un smartphone, qui utilise les techniques décrites ici, a également été réalisé.Dans un dernier temps, un modèle simplifié de la reconnaissance des gestes dynamiques a été proposé et validé dans un contexte applicatif. Il a été montré que un geste peut être défini de façon assez robuste par une pose initiale et une pose finale, qui sont classé par le système décrit ci-dessus
This thesis aims at improving the complex task of hand gesture recognition by utilizing machine learning techniques to learn from features calculated from 3D point cloud data. The main contributions of this work are embedded in the domains of machine learning and in the human-machine interaction. Since the goal is to demonstrate that a robust real-time capable system can be set up which provides a supportive means of interaction, the methods researched have to be light-weight in the sense that descriptivity balances itself with the calculation overhead needed to, in fact, remain real-time capable. To this end several approaches were tested:Initially the fusion of multiple ToF-sensors to improve the overall recognition rate was researched. It is examined, how employing more than one sensor can significantly boost recognition results in especially difficult cases and get a first grasp on the influence of the descriptors for this task as well as the influence of the choice of parameters on the calculation of the descriptor. The performance of MLPs with standard parameters is compared with the performance of SVMs for which the parameters have been obtained via grid search.Building on these results, the integration of the system into the car interior is shown. It is demonstrated how such a system can easily be integrated into an outdoor environment subject to strongly varying lighting conditions without the need for tedious calibration procedures. Furthermore the introduction of a modified light-weight version of the descriptor coupled with an extended database significantly boosts the frame rate for the whole recognition pipeline. Lastly the introduction of confidence measures for the output of the MLPs allows for more stable classification results and gives an insight on the innate challenges of this multiclass problem in general.In order to improve the classification performance of the MLPs without the need for sophisticated algorithm design or extensive parameter search a simple method is proposed which makes use of the existing recognition routines by exploiting information already present in the output neurons of the MLPs. A simple fusion technique is proposed which combines descriptor features with neuron confidences coming from a previously trained net and proves that augmented results can be achieved in nearly all cases for problem classes and individuals respectively.These findings are analyzed in-depth on a more theoretical scale by comparing the effectiveness of learning solely on neural activities in the output layer with the previously introduced fusion approach. In order to take into account temporal information, the thesis describes a possible approach on how to exploit the fact that we are dealing with a problem within which data is processed in a sequential manner and therefore problem-specific information can be taken into account. This approach classifies a hand pose by fusing descriptor features with neural activities coming from previous time steps and lays the ground work for the following section of making the transition towards dynamic hand gestures. Furthermore an infotainment system realized on a mobile device is introduced and coupled with the preprocessing and recognition module which in turn is integrated into an automotive setting demonstrating a possible testing environment for a gesture recognition system.In order to extend the developed system to allow for dynamic hand gesture interaction a simplified approach is proposed. This approach demonstrates that recognition of dynamic hand gesture sequences can be achieved with the simple definition of a starting and an ending pose based on a recognition module working with sufficient accuracy and even allowing for relaxed restrictions in terms of defining the parameters for such a sequence
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Girod, Thomas. „Un modèle d'apprentissage multimodal pour un substrat distribué d'inspiration corticale“. Electronic Thesis or Diss., Nancy 1, 2010. http://www.theses.fr/2010NAN10092.

Der volle Inhalt der Quelle
Annotation:
Le domaine des neurosciences computationnelles s'intéresse à la modélisation des fonctions cognitives à travers des modèles numériques bio-inspirés. Dans cette thèse, nous nous intéressons en particulier à l'apprentissage dans un contexte multimodal, c'est à dire à la formation de représentations cohérentes à partir de plusieurs modalités sensorielles et/ou motrices. Notre modèle s'inspire du cortex cérébral, lieu supposé de la fusion multimodale dans le cerveau, et le représente à une échelle mésoscopique par des colonnes corticales regroupées en cartes et des projections axoniques entre ces cartes. Pour effectuer nos simulations, nous proposons une bibliothèque simplifiant la construction et l'évaluation de modèles mésoscopiques. Notre modèle d'apprentissage se base sur le modèle BCM (Bienenstock-Cooper-Munro), qui propose un algorithme d'apprentissage non-supervisé local (une unité apprend à partir de ses entrées de manière autonome) et biologiquement plausible. Nous adaptons BCM en introduisant la notion d'apprentissage guidé, un moyen de biaiser la convergence de l'apprentissage BCM en faveur d'un stimulus choisi. Puis, nous mettons ce mécanisme à profit pour effectuer un co-apprentissage entre plusieurs modalités. Grâce au co-apprentissage, les sélectivités développées sur chaque modalité tendent à représenter le même phénomène, perçu à travers différentes modalités, élaborant ainsi une représentation multimodale cohérente dudit phénomène
The field of computational neurosciences is interested in modeling the cognitive functions through biologically-inspired, numerical models. In this thesis, we focus on learning in a multimodal context, ie the combination of several sensitive/motor modalities. Our model draws from the cerebral cortex, supposedly linked to multimodal integration in the brain, and modelize it on a mesoscopic scale with 2d maps of cortical columns and axonic projections between maps. To build our simulations, we propose a library to simplify the construction and evaluation of mesoscopic models. Our learning model is based on the BCM model (Bienenstock-Cooper-Munro), which offers a local, unsupervized, biologically plausible learning algorithm (one unit learns autonomously from its entries). We adapt this algorithm by introducing the notion of guided learning, a mean to bias the convergence to the benefit of a chosen stimuli. Then, we use this mecanism to establish correlated learning between several modalities. Thanks to correlated leanring, the selectivities acquired tend to account for the same phenomenon, perceived through different modalities. This is the basis for a coherent, multimodal representation of this phenomenon
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Girod, Thomas. „Un modèle d'apprentissage multimodal pour un substrat distribué d'inspiration corticale“. Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00547941.

Der volle Inhalt der Quelle
Annotation:
Le domaine des neurosciences computationnelles s'intéresse à la modélisation des fonctions cognitives à travers des modèles numériques bio-inspirés. Dans cette thèse, nous nous intéressons en particulier à l'apprentissage dans un contexte multimodal, c'est à dire à la formation de représentations cohérentes à partir de plusieurs modalités sensorielles et/ou motrices. Notre modèle s'inspire du cortex cérébral, lieu supposé de la fusion multimodale dans le cerveau, et le représente à une échelle mésoscopique par des colonnes corticales regroupées en cartes et des projections axoniques entre ces cartes. Pour effectuer nos simulations, nous proposons une bibliothèque simplifiant la construction et l'évaluation de modèles mésoscopiques. Notre modèle d'apprentissage se base sur le modèle BCM (Bienenstock-Cooper-Munro), qui propose un algorithme d'apprentissage non-supervisé local (une unité apprend à partir de ses entrées de manière autonome) et biologiquement plausible. Nous adaptons BCM en introduisant la notion d'apprentissage guidé, un moyen de biaiser la convergence de l'apprentissage BCM en faveur d'un stimulus choisi. Puis, nous mettons ce mécanisme à profit pour effectuer un co-apprentissage entre plusieurs modalités. Grâce au co-apprentissage, les sélectivités développées sur chaque modalité tendent à représenter le même phénomène, perçu à travers différentes modalités, élaborant ainsi une représentation multimodale cohérente dudit phénomène.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Kanj, Sawsan. „Méthodes d'apprentissage pour la classification multi label“. Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2076.

Der volle Inhalt der Quelle
Annotation:
La classification multi-label est une extension de la classification traditionnelle dans laquelle les classes ne sont pas mutuellement exclusives, chaque individu pouvant appartenir à plusieurs classes simultanément. Ce type de classification est requis par un grand nombre d’applications actuelles telles que la classification d’images et l’annotation de vidéos. Le principal objectif de cette thèse est la proposition de nouvelles méthodes pour répondre au problème de classification multi-label. La première partie de cette thèse s’intéresse au problème d’apprentissage multi-label dans le cadre des fonctions de croyance. Nous développons une méthode capable de tenir compte des corrélations entre les différentes classes et de classer les individus en utilisant le formalisme de représentation de l’incertitude pour les variables multi-valuées. La deuxième partie aborde le problème de l’édition des bases d’apprentissage pour la classification multi-label. Nous proposons un algorithme basé sur l’approche des k-plus proches voisins qui permet de détecter les exemples erronés dans l’ensemble d’apprentissage. Des expérimentations menées sur des jeux de données synthétiques et réelles montrent l’intérêt des approches étudiées
Multi-label classification is an extension of traditional single-label classification, where classes are not mutually exclusive, and each example can be assigned by several classes simultaneously . It is encountered in various modern applications such as scene classification and video annotation. the main objective of this thesis is the development of new techniques to adress the problem of multi-label classification that achieves promising classification performance. the first part of this manuscript studies the problem of multi-label classification in the context of the theory of belief functions. We propose a multi-label learning method that is able to take into account relationships between labels ant to classify new instances using the formalism of representation of uncertainty for set-valued variables. The second part deals withe the problem of prototype selection in the framework of multi-label learning. We propose an editing algorithm based on the k-nearest neighbor rule in order to purify training dataset and improve the performances of multi-label classification algorithms. Experimental results on synthetic and real-world datasets show the effectiveness of our approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Gayraud, Nathalie. „Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués“. Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4231/document.

Der volle Inhalt der Quelle
Annotation:
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG
Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Orcesi, Astrid. „Méthodes d'apprentissage appliquées à l'analyse du comportement humain par vision“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST082.

Der volle Inhalt der Quelle
Annotation:
L'analyse du comportement humain par vision est une thématique de recherche très étudiée car malgré les progrès apportés par l'apprentissage profond en vision par ordinateur, comprendre finement ce qui est en train de se passer dans une scène est une tâche loin d'être résolue car elle présente un très haut niveau sémantique.Dans cette thèse nous nous intéressons à deux applications : la reconnaissance d'activités longues temporellement dans des vidéos et la détection d'interaction dans des images.La première contribution de ces travaux est l'élaboration de la première base de données d'activités quotidiennes présentant de fortes variabilités intra-classe.La deuxième contribution est la proposition d'une nouvelle méthode de détection d'interaction en une seule passe sur l'image ce qui lui permet d'être beaucoup plus rapide que les méthodes de l'état de l'art en deux étapes et appliquant un raisonnement par paire d'instances.Enfin, la troisième contribution de cette thèse est la constitution d'un nouveau jeu de données d'interactions composé d'interactions à la fois entre des personnes et des objets mais également entre des personnes ce qui n'existait pas jusqu'à maintenant et qui permet pourtant une analyse des interactions humaines exhaustive. De manière à proposer des résultats de référence sur ce nouveau jeu de données, la précédente méthode de détection d'interactions a été améliorée en proposant un apprentissage multi-tâches ce qui permet d'obtenir les meilleurs résultats sur la base de données publique largement utilisée par la communauté
The analysis of human behavior by vision is a strong studied research topic. Indeed despite the progress brought by deep learning in computer vision, understanding finely what is happening in a scene is a task far from being solved because it presents a very high semantic level.In this thesis we focus on two applications: the recognition of temporally long activities in videos and the detection of interaction in images.The first contribution of this work is the development of the first database of daily activities with high intra-class variability.The second contribution is the proposal of a new method for interaction detection in a single shot on the image which allows it to be much faster than the state of the art two-step methods which apply a reasoning by pair of instances.Finally, the third contribution of this thesis is the constitution of a new interaction dataset composed of interactions both between people and objects and between people which did not exist until now and which allows an exhaustive analysis of human interactions. In order to propose baseline results on this new dataset, the previous interaction detection method has been improved by proposing a multi-task learning which reaches the best results on the public dataset widely used by the community
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Mohammed, Omar. „Méthodes d'apprentissage approfondi pour l'extraction et le transfert de style“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT035.

Der volle Inhalt der Quelle
Annotation:
L'un des aspects d'une interface homme-machine réussie (p. ex. interaction homme-robot, chatbots, parole, écriture manuscrite, etc.) est la possibilité d'avoir une interaction personnalisée. Cela affecte l'expérience humaine globale et permet une interaction plus fluide. Actuellement, il y a beaucoup de travaux qui utilisent l'apprentissage machine afin de modéliser de telles interactions. Cependant, ces modèles n'abordent pas la question du comportement personnalisé : ils tentent de faire la moyenne des différents exemples provenant de différentes personnes. L'identification des styles humains (persona) ouvre la possibilité de biaiser la sortie des modèles pour prendre en compte la préférence humaine. Dans cette thèse, nous nous sommes concentrés sur le problème des styles dans le contexte de l'écriture manuscrite.L'objectif de cette thèse est d'étudier ces problèmes de styles, dans le domaine de l'écriture. Nous disposons d'un jeu de données IRONOFF, un jeu de données d'écriture manuscrite en ligne, avec 410 rédacteurs, avec ~25K exemples de dessins en majuscules, minuscules et chiffres. Pour le problème de l'apprentissage par transfert, nous avons utilisé un jeu de données supplémentaire, QuickDraw ! (disponible gratuitement sur Google), un jeu de données de dessin d'esquisses contenant environ 50 millions de dessins sur 345 catégories.Les principales contributions de ma thèse sont :1) Proposer un pipeline de travail pour étudier le problème des styles d'écriture. Il s'agit de proposer une méthodologie, des repères et des paramètres d'évaluation (et de fonder ces paramètres d'évaluation).Nous choisissons le paradigme des modèles génératifs temporels dans l'apprentissage profond afin de générer des dessins et d'évaluer leur proximité/pertinence par rapport aux dessins de vérité voulus/de terrain. Nous avons proposé deux métriques, pour évaluer la courbure et la longueur des dessins générés. Afin d'enraciner ces métis, nous avons proposé de multiples repères - dont nous connaissons le pouvoir relatif à l'avance -, puis vérifié que les mesures respectent effectivement la relation de pouvoir relatif.2) Proposer un cadre pour l'étude et l'extraction des styles, et vérifier son avantage par rapport aux repères proposés précédemment.Nous nous sommes mis d'accord sur l'idée d'utiliser un auto-encodeur conditionné en profondeur pour résumer et extraire les informations de style, sans avoir besoin de nous concentrer sur l'identité de la tâche (puisqu'elle est donnée comme une condition). Nous validons ce cadre par rapport au repère proposé précédemment à l'aide de nos paramètres d'évaluation. Nous visualisons également les styles extraits, ce qui nous permet d'obtenir des résultats passionnants !3) En utilisant le cadre proposé, proposer un moyen de transférer l'information sur les styles entre les différentes tâches, et un protocole afin d'évaluer la qualité du transfert.Nous avons exploité le codeur automatique conditionné profond utilisé précédemment, en extrayant la partie codeur - qui, selon nous, contenait les informations pertinentes sur les styles - et en l'utilisant dans de nouveaux modèles formés sur de nouvelles tâches. Nous testons intensivement ce paradigme sur une gamme différente de tâches, à la fois sur les ensembles de données IRONOFF et QuickDraw!. Nous montrons que nous pouvons transférer avec succès les informations de style entre différentes tâches
One aspect of a successful human-machine interface (e.g. human-robot interaction, chatbots, speech, handwriting…,etc) is the ability to have a personalized interaction. This affects the overall human experience, and allow for a more fluent interaction. At the moment, there is a lot of work that uses machine learning in order to model such interactions. However, these models do not address the issue of personalized behavior: they try to average over the different examples from different people in the training set. Identifying the human styles (persona) opens the possibility of biasing the models output to take into account the human preference. In this thesis, we focused on the problem of styles in the context of handwriting.Defining and extracting handwriting styles is a challenging problem, since there is no formal definition for those styles (i.e., it is an ill-posed problem). Styles are both social - depending on the writer's training, especially in middle school - and idiosyncratic - depends on the writer's shaping (letter roundness, sharpness…,etc) and force distribution over time. As a consequence, there are no easy/generic metrics to measure the quality of style in a machine behavior.We may want to change the task or adapt to a new person. Collecting data in the human-machine interface domain can be quite expensive and time consuming. Although most of the time the new task has many things in common with the old task, traditional machine learning techniques fail to take advantage of this commonality, leading to a quick degradation in performance. Thus, one of the objectives of my thesis is to study and evaluate the idea of transferring knowledge about the styles between different tasks, within the machine learning paradigm.The objective of my thesis is to study these problems of styles, in the domain of handwriting. Available to us is IRONOFF dataset, an online handwriting datasets, with 410 writers, with ~25K examples of uppercase, lowercase letters and digits drawings. For transfer learning, we used an extra dataset, QuickDraw!, a sketch drawing dataset containing ~50 million drawing over 345 categories.Major contributions of my thesis are:1) Propose a work pipeline to study the problem of styles in handwriting. This involves proposing methodology, benchmarks and evaluation metrics.We choose temporal generative models paradigm in deep learning in order to generate drawings, and evaluate their proximity/relevance to the intended/ground truth drawings. We proposed two metrics, to evaluate the curvature and the length of the generated drawings. In order to ground those metics, we proposed multiple benchmarks - which we know their relative power in advance -, and then verified that the metrics actually respect the relative power relationship.2) Propose a framework to study and extract styles, and verify its advantage against the previously proposed benchmarks.We settled on the idea of using a deep conditioned-autoencoder in order to summarize and extract the style information, without the need to focus on the task identity (since it is given as a condition). We validate this framework to the previously proposed benchmark using our evaluation metrics. We also to visualize on the extracted styles, leading to some exciting outcomes!3) Using the proposed framework, propose a way to transfer the information about styles between different tasks, and a protocol in order to evaluate the quality of transfer.We leveraged the deep conditioned-autoencoder used earlier, by extract the encoder part in it - which we believe had the relevant information about the styles - and use it to in new models trained on new tasks. We extensively test this paradigm over a different range of tasks, on both IRONOFF and QuickDraw! datasets. We show that we can successfully transfer style information between different tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Chardin, David. „Étude de différentes méthodes d'apprentissage supervisé pour le développement de tests diagnostiques basés sur des données métabolomiques“. Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ6004.

Der volle Inhalt der Quelle
Annotation:
La métabolomique est une approche portant sur l'étude des petites molécules ou « métabolites » présents dans divers échantillons biologiques. Les différents domaines omiques : génomique, transcriptomique, protéomique et métabolique, forment une chaine où chaque maillon va influencer les autres et pourra être influencé par des phénomènes externes. La métabolomique représente le dernier maillon de cette chaine, résultat de facteurs génétiques, pathologiques, environnementaux et toxicologiques et est ainsi le domaine omique qui se rapproche le plus du phénotype biologique.Les analyses de métabolomique étant relativement peu couteuses et rapides, elles pourraient être utilisées en médecine, notamment pour élaborer de nouveaux tests diagnostiques.Les données de métabolomique comportent un grand nombre de variables. Différentes méthodes de machine learning sont utilisées pour l'analyse statistiques de ces données de grande dimension. La méthode la plus utilisées est la méthode PLS-DA (Partial Least Squares Discriminant Analysis). Cependant, cette méthode présente certaines limites, notamment un risque de fausses découvertes lié à un sur-ajustement.Dans le cadre de cette thèse, nous avons évalué de nouvelles méthodes de classification supervisée pour des applications cliniques de la métabolomique, notamment pour le développement de tests diagnostiques.Nous présentons tout d'abord deux nouvelles méthodes de classification supervisée développées en collaboration entre biologistes, médecins et mathématiciens pour une utilisation en métabolomique : la méthode PD-CR (Primal Dual for Classification with Rejection) et un autoencodeur supervisé. Nous comparons ces méthodes à des méthodes couramment utilisées en métabolomique : PLS-DA, Standard Vector Machines (SVM), Random Forests et un réseau de neurone. Nous montrons ainsi que les nouvelles méthodes développées présentent des performances équivalentes ou supérieures aux méthodes courantes tout en sélectionnant des métabolites pertinents, dont le poids dans la classification est donné de manière facilement interprétable. Par ailleurs, ces méthodes incluent un score de probabilité pour chaque prédiction, qui nous semble particulièrement pertinent pour une utilisation dans un contexte médical. Ensuite nous présentons les résultats d'une étude de métabolomique concernant des échantillons de tumeurs gliales congelés et fixés en paraffines. A l'aide d'une méthode de régression avec pénalisation L1 associée à un bootstrap nous avons développé deux modèles permettant de classifier les tumeurs gliales selon leur statut mutationnel IDH et selon leur grade à partir de données de métabolomique obtenues sur échantillons congelés. Ces modèles étaient basés sur trois métabolites d'intérêt : le 2-hydroxyglutarate, l'amino-adipate et le guanidine-acetate. Nous avons ensuite montré que ces modèles pouvaient être appliqués sur des données de métabolomique obtenues sur des échantillons fixés en paraffine avec des performances correctes : prédiction du statut mutationnel IDH avec une sensibilité 70.6% de et une spécificité de 80.4% et prédiction du grade avec une sensibilité de 75% et une spécificité de 74.5%. Nous avons ainsi montré qu'il était possible de réaliser des analyses de métabolomique sur échantillons fixés en paraffine et d'en tirer des résultats pertinents.L'analyse ciblée de nouveaux échantillons permettrait de valider ces modèles et de les utiliser en pratique courante en complément des techniques déjà disponibles. De plus, l'exploration des phénomènes biologiques à l'origine de l'association entre le grade de malignité des tumeurs gliales et l'aminoadipate et le guanidinoactetate pourrait permettre de mieux comprendre leur cancérogénèse
Metabolomics is a recent field of research concerning the study of small molecules or « metabolites » in biological samples. The different omics fields: genomics, transcriptomics, proteomics and metabolomics, form a chain in which each link influences the others and is influenced by external factors. Metabolomics represent the last link of this chain, resulting of genetic, pathologic, environmental and toxicological factors, and is thus the omics field closest to the biological phenotype.Since metabolomic studies are relatively fast and inexpensive, they could be used in routine medical practice, particularly for diagnostic testing.Metabolomic data most frequently include high numbers of variables. Different machine learning methods are used for the statistical analysis of these high dimensional datasets. The most frequently used method is PLS-DA (Partial Least Squares Discriminant Analysis). However, this method has some drawbacks, including a risk of false discoveries due to overfitting.In this work, we evaluated new supervised classification methods for clinical applications of metabolomics, particularly for diagnostic testing.We first introduce two new classification methods, created through a collaboration between biologists, physicians and mathematicians: the PD-CR method (Primal Dual for Classification with Rejection) and a supervised autoencoder. We compare these methods to the most frequently used methods in this setting: PLS-DA, Standard Vector Machines, Random Forests and neural networks. Hence, we show that these new methods have similar or higher performances as the classical methods, while selecting biologically relevant metabolites for which the weights in the classification are given in a straightforward and easily interpretable manner. Moreover, these methods include a probability score for each prediction, which seems particularly relevant for medical applications.We then report the results of a metabolomic study performed on frozen and formalin fixed glial tumor samples. Using an L1 penalized regression method associated with a bootstrap method we created two models to classify glial tumors according to their IDH mutational status and their grade. These models were trained on metabolomic data from frozen samples and lead to the selection of three metabolites: 2-hydroxyglutarate, aminoadipate and guanidinoacetate. When testing these models on metabolomic data obtained on fixed glial tumor samples, they revealed good classification results: IDH mutational status prediction with a sensitivity of 70.6% and a specificity of 80.4% and grade prediction with a sensitivity of 75% and a specificity of 74.5%. Hence, we have shown that performing a metabolomic analysis on fixed samples is possible and can lead to promissing results.Targeted analysis on new tumor samples could be performed to validate our models and lead to applications in routine practice, complementing pre-existing techniques. Moreover, exploring the biological phenomenons underlying the association of glial tumor grade and aminoadipate and guanidinoacetate could lead to a better understanding of these tumors and their carcinogenesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Playe, Benoit. „Méthodes d'apprentissage statistique pour le criblage virtuel de médicament“. Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM010/document.

Der volle Inhalt der Quelle
Annotation:
Le processus de découverte de médicaments a un succès limité malgré tous les progrès réalisés. En effet, on estime actuellement que le développement d'un médicament nécessite environ 1,8 milliard de dollars américains sur environ 13 ans. Nous nous concentrons dans cette thèse sur des approches statistiques qui criblent virtuellement un grand ensemble de composés chimique contre un grand nombre de protéines. Leurs applications sont polyvalentes : elles permettent d’identifier des candidats médicaments pour des cibles thérapeutiques connues, d’anticiper des effets secondaires potentiels, ou de proposer de nouvelles indications thérapeutiques pour des médicaments connus. Cette thèse est conçue selon deux cadres d'approches de criblage virtuel : les approches dans lesquelles les données sont décrites numériquement sur la base des connaissances des experts, et les approches basées sur l'apprentissage automatique de la représentation numérique à partir du graphe moléculaire et de la séquence protéique. Nous discutons ces approches et les appliquons pour guider la découverte de médicaments
The rational drug discovery process has limited success despite all the advances in understanding diseases, and technological breakthroughs. Indeed, the process of drug development is currently estimated to require about 1.8 billion US dollars over about 13 years on average. Computational approaches are promising ways to facilitate the tedious task of drug discovery. We focus in this thesis on statistical approaches which virtually screen a large set of compounds against a large set of proteins, which can help to identify drug candidates for known therapeutic targets, anticipate potential side effects or to suggest new therapeutic indications of known drugs. This thesis is conceived following two lines of approaches to perform drug virtual screening : data-blinded feature-based approaches (in which molecules and proteins are numerically described based on experts' knowledge), and data-driven feature-based approaches (in which compounds and proteins numerical descriptors are learned automatically from the chemical graph and the protein sequence). We discuss these approaches, and also propose applications of virtual screening to guide the drug discovery process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Toqué, Florian. „Prévision et visualisation de l'affluence dans les transports en commun à l'aide de méthodes d'apprentissage automatique“. Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2029.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la lutte contre le réchauffement climatique, plusieurs pays du monde notamment le Canada et certains pays européens dont la France, ont établi des mesures afin de réduire les nuisances environnementales. L'un des axes majeurs abordés par les états concerne le secteur du transport et plus particulièrement le développement des systèmes de transport en commun en vue de réduire l'utilisation de la voiture personnelle et les émissions de gaz à effet de serre. A cette fin, les collectivités concernées visent à mettre en place des systèmes de transports urbains plus accessibles, propres et durables. Dans ce contexte, cette thèse en codirection entre l'Université Paris-Est, l'Institut français des sciences et technologies des transports, de l'aménagement et des réseaux (IFSTTAR) et Polytechnique Montréal au Canada, s'attache à analyser la mobilité urbaine au travers de recherches menées sur la prévision et la visualisation de l'affluence des passagers dans les transports en commun à l'aide de méthodes d'apprentissage automatique. Les motivations finales concernent l'amélioration des services de transport proposés aux usagers, tels qu'une meilleure planification de l'offre de transport et une amélioration de l'information voyageur (e.g., proposition d'itinéraire en cas d'événement/incident, information concernant le taux de de remplissage des trains à un horaire choisi, etc.). Cette thèse s'inscrit dans un contexte général de valorisation des traces numériques et d'essor du domaine de la science des données (e.g., collecte et stockage des données, développement de méthodes d'apprentissage automatique, etc.). Les travaux comportent trois volets principaux à savoir (i) la prévision long terme de l'affluence des passagers à l'aide de base de données événementielles et de données billettiques, (ii) la prévision court terme de l'affluence des passagers et (iii) la visualisation de l'affluence des passagers dans les transports en commun. Les recherches se basent principalement sur l'utilisation de données billettiques fournies par les opérateurs de transports et ont été menées sur trois cas d'études réels, le réseau de métro et de bus de la ville de Rennes, le réseau ferré et de tramway du quartier d'affaire de la Défense à Paris en France, et le réseau de métro de Montréal, Québec au Canada
As part of the fight against global warming, several countries around the world, including Canada and some European countries, including France, have established measures to reduce greenhouse gas emissions. One of the major areas addressed by the states concerns the transport sector and more particularly the development of public transport to reduce the use of private cars. To this end, the local authorities concerned aim to establish more accessible, clean and sustainable urban transport systems. In this context, this thesis, co-directed by the University of Paris-Est, the french institute of science and technology for transport, development and network (IFSTTAR) and Polytechnique Montréal in Canada, focuses on the analysis of urban mobility through research conducted on the forecasting and visualization of public transport ridership using machine learning methods. The main motivations concern the improvement of transport services offered to passengers such as: better planning of transport supply, improvement of passenger information (e.g., proposed itinerary in the case of an event/incident, information about the crowd in the train at a chosen time, etc.). In order to improve transport operators' knowledge of user travel in urban areas, we are taking advantage of the development of data science (e.g., data collection, development of machine learning methods). This thesis thus focuses on three main parts: (i) long-term forecasting of passenger demand using event databases, (ii) short-term forecasting of passenger demand and (iii) visualization of passenger demand on public transport. The research is mainly based on the use of ticketing data provided by transport operators and was carried out on three real case study, the metro and bus network of the city of Rennes, the rail and tramway network of "La Défense" business district in Paris, France, and the metro network of Montreal, Quebec in Canada
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Pastor, Philippe. „Étude et application des méthodes d'apprentissage pour la navigation d'un robot en environnement inconnu“. Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0013.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est l'étude des méthodes d'apprentissage par renforcement en vue de son application à la navigation d'un robot mobile autonome. Après une présentation des méthodes d'apprentissage développées depuis les débuts de la Cybernétique jusqu'à aujourd'hui en Intelligence Artificielle, nous présentons les fondements mathématiques de l'apprentissage par renforcement que sont la théorie des automates d'apprentissage et la Programmation Dynamique en temps réel. Les chapitres suivants sont consacrés au problème de la navigation d'un robot mobile autonome évoluant dans un environnement qui lui est inconnu. Pour répondre à ce problème, nous proposons d'utiliser différents algorithmes d'apprentissage par renforcement issus, soit des automates d'apprentissage, soit du G-learning. Les performances de ces algorithmes sont ensuite comparées à partir d'expérimentations menées sur un système non-holonome. Enfin, le derneir chapitre propose une extension originale de ce type d'apprentissage dans le but de construire une carte représentant la topolgie de l'environnement dans lequel le robot évolue.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Selingue, Maxime. „amélioration de la précision de structures sérielles poly-articulées par des méthodes d'apprentissage automatique économes en données“. Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE085.

Der volle Inhalt der Quelle
Annotation:
L'évolution des méthodes de production, dans le contexte de l'industrie 4.0, conduit les robots collaboratifs et industriels à être utilisés pour des tâches telles que le perçage, l'usinage, ou l'assemblage.Ces tâches demandent une précision de l'ordre du dixième de millimètre, alors que la précision de ces robots est de l'ordre de un à deux millimètres.Cet état de fait conduit les intégrateurs robotiques à proposer des méthodes de calibration visant à établir un modèle de comportement du robot plus fiable et représentatif du robot réel.Ainsi, les méthodes de calibration analytiques modélisent les défauts affectant la précision des robots industriels, à savoir les défauts géométriques, la compliance des articulations, les erreurs de transmissions et la dérive thermique.Face à la complexité de l'identification expérimentale des paramètres de certains de ces modèles analytiques, des méthodes de calibration hybrides ont été développés.Ces méthodes hybrides couplent un modèle analytique simple avec une approche par apprentissage automatique dont le rôle est de prédire fidèlement les erreurs résiduelles de positionnement (engendrées par la non-exactitude du modèle analytique).Ces défauts peuvent alors être compensées par anticipation, au travers d'un algorithme de compensation.En revanche, ces méthodes demandent beaucoup de temps, de données, et ne sont plus valables lorsque la charge utile du robot change.L'objectif de cette thèse est d'améliorer les méthodes de calibration hybrides pour les rendre applicables dans des contextes industriels.Dans ce sens, plusieurs contributions ont été apportées.D'abord, deux méthodes basées sur des réseaux de neurones permettant, avec très peu de données, d'adapter le modèle hybride (i.e. le réglage d'un jeux de poids spécifique) à une nouvelle charge utile dans un sous-espace de travail du robot.Ces deux méthodes utilisent respectivement un apprentissage par transfert et une interpolation de prédictions.Puis, une méthode de calibration hybride par apprentissage actif utilisant une régression par processus gaussien est présentée.Via cette approche, dans un processus itératif, le système décide des données pertinentes à acquérir de manière autonome, ce qui permet une calibration optimisée en données et en temps
The evolution of production methods in the context of Industry 4.0 has led to the use of collaborative and industrial robots for tasks such as drilling, machining, and assembly. These tasks require an accuracy of around a tenth of a millimeter, whereas the precision of these robots is in the range of one to two millimeters. Robotic integrators had to propose calibration methods aimed at establishing a more reliable and representative model of the robot's behavior in the real world.As a result, analytical calibration methods model the defects affecting the accuracy of industrial robots, including geometric defects, joint compliance, transmission errors, and thermal drift. Given the complexity of experimentally identifying the parameters of some of these analytical models, hybrid calibration methods have been developed. These methods combine an analytical model with a machine learning approach whose role is to accurately predict residual positioning errors (caused by the inaccuracies of the analytical model). These defects can then be compensated for in advance through a compensation algorithm.However, these methods require a significant amount of time and data and are no longer valid when the robot's payload changes. The objective of this thesis is to improve hybrid calibration methods to make them applicable in industrial contexts. In this regard, several contributions have been made.First, two methods based on neural networks that allow the adaptation of the hybrid model to a new payload within a robot's workspace with very little data. These two methods respectively rely on transfer learning and prediction interpolation.Then, a hybrid calibration method using active learning with Gaussian process regression is presented. Through this approach, in an iterative process, the system autonomously decides on relevant data to acquire, enabling optimized calibration in terms of data and time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Giffon, Luc. „Approximations parcimonieuses et méthodes à noyaux pour la compression de modèles d'apprentissage“. Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0354.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour objectif d’étudier et de valider expérimentalement les bénéfices, en terme de quantité de calcul et de données nécessaires, que peuvent apporter les méthodes à noyaux et les méthodes d’approximation parcimonieuses à des algorithmes d’apprentissage existant. Dans une première partie de cette thèse, nous proposons un nouveau type d’architecture neuronale qui fait intervenir une fonction noyau afin d’en réduire le nombre de paramètres à apprendre, ce qui permet de la rendre robuste au sur-apprentissage dans un régime où peu de données annotées sont disponibles. Dans une seconde partie de cette thèse, nous cherchons à réduire la complexité de modèles d’apprentissage existants en y incluant des approximations parcimonieuses. D’abord, nous proposons un algorithme alternatif à l’algorithme des K-moyennes qui permet d’en accélérer la phase d’inférence grâce à l’expression des centroides sous forme d’un produit de matrices parcimonieuses. En plus des garanties de convergence de l’algorithme proposé, nous apportons une validation expérimentale de la qualité des centroides ainsi exprimés et de leur bénéfice en terme de coût calculatoire. Ensuite, nous explorons la compression de réseaux neuronaux par le remplacement des matrices qui le constituent avec des décomposition parcimonieuses. Enfin, nous détournons l’algorithme d’approximation parcimonieuse OMP pour faire une sélection pondérée des arbres de décision d’une forêt aléatoire, nous analysons l’effet des poids obtenus et proposons par ailleurs une alternative non-négative de la méthode qui surpasse toutes les autres techniques de sélection d’arbres considérées sur un large panel de jeux de données
This thesis aims at studying and experimentally validating the benefits, in terms of amount of computation and data needed, that kernel methods and sparse approximation methods can bring to existing machine learning algorithms. In a first part of this thesis, we propose a new type of neural architecture that uses a kernel function to reduce the number of learnable parameters, thus making it robust to overfiting in a regime where few labeled observations are available. In a second part of this thesis, we seek to reduce the complexity of existing machine learning models by including sparse approximations. First, we propose an alternative algorithm to the K-means algorithm which allows to speed up the inference phase by expressing the centroids as a product of sparse matrices. In addition to the convergence guarantees of the proposed algorithm, we provide an experimental validation of both the quality of the centroids thus expressed and their benefit in terms of computational cost. Then, we explore the compression of neural networks by replacing the matrices that constitute its layers with sparse matrix products. Finally, we hijack the Orthogonal Matching Pursuit (OMP) sparse approximation algorithm to make a weighted selection of decisiontrees from a random forest, we analyze the effect of the weights obtained and we propose a non-negative alternative to the method that outperforms all other tree selectiontechniques considered on a large panel of data sets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Marin, Didier. „Méthodes d'apprentissage pour l'interaction physique homme-robot : application à l'assistance robotisée pour le transfert assis-debout“. Paris 6, 2013. http://www.theses.fr/2013PA066293.

Der volle Inhalt der Quelle
Annotation:
La verticalisation est une tâche qui devient de plus en plus difficile avec l’âge. Elle est cependant nécessaire à l’autonomie, car elle précède la marche. La robotique d’assistance physique propose des solutions robotisées permettant une assistance active dans la réalisation de tâches motrices. Elle offre la possibilité d’adapter l’assistance suivant les besoins et les spécificités de chaque utilisateur. Notre travail propose et implémente un mécanisme d’adaptation automatique du comportement d’un robot d’assistance à son utilisateur. L'assistance apportée est évalué à l'aide d'un critère de confort spécifique à la tâche. L'adaptation consiste en une optimisation des paramètres de la commande robotique à l’aide des méthodes de l’apprentissage par renforcement. Cette approche est testée sur des prototypes de déambulateur intelligent, avec des sujets sains et des patients
Sit-to-stand is a task that becomes increasingly difficult with aging. It is however necessary for an autonomous life, since it precedes walking. Physical assistance robotics offers solutions that provide an active assistance in the realization of motor tasks. It gives the possibility to adapt the assistance to the specific needs of each user. Our work proposes and implements a mechanism for automatic adaptation of an assistance robot behaviour to its user. The provided assistance is evaluated using a confort criterion which is specific to the task. The adaptation consists in an optimisation of control parameters using Reinforcement Learning methods. This approach is tested on smart walker prototypes, with healthy subjects and patients
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Sokol, Marina. „Méthodes d'apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux“. Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998394.

Der volle Inhalt der Quelle
Annotation:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l'échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Bailly, Kévin. „Méthodes d'apprentissage pour l'estimation de la pose de la tête dans des images monoculaires“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00560836.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de PILE, un projet médical d'analyse du regard, des gestes, et des productions vocales d'enfants en bas âge. Dans ce contexte, nous avons conçu et développé des méthodes de détermination de l'orientation de la tête, pierre angulaire des systèmes d'estimation de la direction du regard. D'un point de vue méthodologique, nous avons proposé BISAR (Boosted Input Selection Algorithm for Regression), une méthode de sélection de caractéristiques adaptée aux problèmes de régression. Elle consiste à sélectionner itérativement les entrées d'un réseau de neurones incrémental. Chaque entrée est associée à un descripteur sélectionné à l'aide d'un critère original qui mesure la dépendance fonctionnelle entre un descripteur et les valeurs à prédire. La complémentarité des descripteurs est assurée par un processus de boosting qui modifie, à chaque itération, la distribution des poids associés aux exemples d'apprentissage. Cet algorithme a été validé expérimentalement au travers de deux méthodes d'estimation de la pose de la tête. La première approche apprend directement la relation entre l'apparence d'un visage et sa pose. La seconde aligne un modèle de visage dans une image, puis estime géométriquement l'orientation de ce modèle. Le processus d'alignement repose sur une fonction de coût qui évalue la qualité de l'alignement. Cette fonction est apprise par BISAR à partir d'exemples de modèles plus ou moins bien alignés. Les évaluations de ces méthodes ont donné des résultats équivalents ou supérieurs aux méthodes de l'état de l'art sur différentes bases présentant de fortes variations de pose, d'identité, d'illumination et de conditions de prise de vues.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Cappelaere, Charles-Henri. „Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066014/document.

Der volle Inhalt der Quelle
Annotation:
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs
Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Meneroux, Yann. „Méthodes d'apprentissage statistique pour la détection de la signalisation routière à partir de véhicules traceurs“. Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2061.

Der volle Inhalt der Quelle
Annotation:
Avec la démocratisation des appareils connectés équipés d’un récepteur GPS, de grandes quantités de trajectoires de véhicules deviennent disponibles, notamment via les flottes de véhicules professionnels et les applications mobiles collaboratives de navigation et d’assistance à la conduite. Récemment, les techniques dites de map inference, visant à dériver de l’information cartographique à partir de ces traces GPS, tendent à compléter, voire à remplacer les techniques traditionnelles. Initialement restreintes à la construction de la géométrie des routes, elles sont progressivement utilisées pour enrichir les réseaux existants, et en particulier pour construire une base de données numérique de la signalisation verticale. La connaissance fine et exhaustive de l’infrastructure routière est un prérequis indispensable dans de nombreux domaines : pour les gestionnaires de réseaux et les décideurs dans le cadre de travaux d’aménagement, pour les usagers avec le calcul précis des temps de parcours, mais aussi dans le cadre du véhicule autonome, avec la construction et la mise à jour d’une cartographie haute définition, garante de la disponibilité à tout instant d’un horizon électronique à même de suppléer le système en cas de dysfonctionnement des capteurs du véhicule. Dans ce contexte, les méthodes d’apprentissage statistique apportent une perspective intéressante et garantissent l’adaptabilité de l’approche aux différents cas d’utilisation et à la grande variabilité des données rencontrées en pratique. Dans ce travail de thèse, nous cherchons à étudier le potentiel de cette classe de méthodes, pour la détection automatique de la signalisation routière, en temps différé, à partir d’un ensemble de profils de vitesse GPS. Le premier cas d’application est celui de la détection des feux de circulation, étendu par la suite à d’autre types de signalisation comme les passages piétons. Dans un premier temps, nous travaillons sur un jeu de données expérimental de haute qualité, à l’aide duquel nous étudions les performances de plusieurs classifieurs et nous comparons deux représentations mathématiques des données : une approche classique de reconnaissance d’image et une approche fonctionnelle consistant à agréger et à décomposer les signaux de profils de vitesses sur une base d’ondelettes de Haar. Les résultats obtenus montrent la pertinence de l’approche fonctionnelle, en particulier lorsqu’elle est combinée à l’algorithme des forêts aléatoires, en termes de fiabilité de détection et de temps de calcul. L’approche est alors appliquée sur d’autres types d’éléments de l’infrastructure. Dans une deuxième partie, nous tentons d’adapter la méthode proposée sur le cas de données observationnelles, i.e. acquises en environnement non-contrôlé, pour lesquelles nous cherchons également à estimer la position des feux de signalisation par régression statistique. Les résultats montrent la sensibilité de l’approche axé sur l’apprentissage face à des données fortement bruitées ainsi que la difficulté liée à la définition de l’emprise spatiale des instances individuelles sur un réseau routier complexe. Nous tentons de lever ce second verrou à l’aide d’approches images globales basées sur une segmentation par réseau de neurones convolutionnel. Enfin, nous expérimentons une approche permettant d’exploiter l’autocorrélation spatiale des variables cibles sur les instances individuelles à l’aide de la topologie du graphe routier et en modélisant la zone d’étude sous forme d’un champ de Markov conditionnel. Les résultats obtenus montrent une amélioration des performances par rapport aux résultats obtenus par l’apprentissage non-structuré. Ces travaux de thèse ont également suscité le développement de méthodes originales de pré-traitement des trajectoires GPS (filtrage, interpolation, débiaisage et recalage sur un réseau routier de référence) ainsi que de critères objectifs d’évaluation de la qualité de ces pré-traitements
With the democratization of connected devices equipped with GPS receivers, large quantities of vehicle trajectories become available, particularly via professional vehicle fleets, mobile navigation and collaborative driving applications. Recently, map inference techniques, aiming at deriving mapping information from these GPS tracks, have tended to complete or even replace traditional techniques. Initially restricted to the construction of road geometry, they are gradually being used to enrich existing networks, and in particular to build a digital database of road signs. Detailed and exhaustive knowledge of the infrastructure is an essential prerequisite in many areas : for network managers and decision-makers, for users with precise calculation of travel times, but also in the context of the autonomous vehicle, with the construction and updating of a high definition map providing in real time electronic horizons, which can supplement the system in the event of failures of the main sensors. In this context, statistical learning methods (e.g. Bayesian methods, random tree forests, neural networks,...) provide an interesting perspective and guarantee the adaptability of the approach to different use cases and the great variability of the data encountered in practice.In this thesis, we investigate the potential of this class of methods, for the automatic detection of traffic signals (mainly traffic lights), from a set of GPS speed profiles. First, we are working on an experimental, high-quality dataset, for which we compare the performances of several classifiers on classical image recognition approaches and on a functional approaches stemming from the field of signal processing, aggregating and decomposing speed profiles on a Haar wavelet basis whose coefficients are used as explanatory variables. The results obtained show the relevance of the functional approach, particularly when combined with the random forest algorithm, in terms of accuracy and computation time. The approach is then applied to other types of road signs.In a second part, we try to adapt the proposed method on the case of observational data for which we also try to estimate the position of the traffic lights by regression. The results show the sensitivity of the learning approach to the data noise and the difficulty of defining the spatial extent of individual instances on a complex road network. We are trying to solvethis second issue using global image approaches based on a segmentation by convolutional neural network, allowing us to avoid the definition of instances. Finally, we are experimenting an approach leveraging spatial autocorrelation of individual instances using the graph topology, by modeling the study area as a conditional Markov field. The results obtained show an improvement compared to the performance obtained with non-structured learning.This thesis work has also led to the development of original methods for pre-processing GPS trajectory data, in particular for filtering, debiaising coordinates and map-matching traces on a reference road network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Cappelaere, Charles-Henri. „Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel“. Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066014.

Der volle Inhalt der Quelle
Annotation:
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs
Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Romanelli, Marco. „Méthodes d'apprentissage machine pour la protection de la vie privée : mesure de leakage et design des mécanismes“. Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX045.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années, l'intelligence artificielle et l'apprentissage machine (ML) ont été de plus en plus présents dans d'innombrables aspects de notre vie quotidienne. Dans cette thèse de doctorat, nous étudions comment les notions de théorie de l'information et de ML peuvent être utilisées pour mieux mesurer et comprendre les informations divulguées par les données et/ou les modèles, et pour concevoir des solutions visant à protéger la confidentialité des informations partagées. Nous explorons d'abord l'application du ML pour estimer l'information leakage d'un système. Nous envisageons un scénario black-box dans lequel les éléments internes du système sont inconnus, ou trop compliqués à analyser, et les seules informations disponibles sont des paires de données input-output. Les travaux précédents se sont concentrés sur le comptage des fréquences pour estimer les probabilités conditionnelles d'input-output (frequentist approach), cependant cette méthode n'est pas précise lorsque le domaine des outputs possibles est large. Pour surmonter cette difficulté, l'estimation par ML de l'erreur du classificateur idéal (Bayes) a récemment été étudiée et sa précision supérieure, grâce à la capacité des modèles à apprendre la correspondance input-output, a été démontré. Cependant, la Bayes vulnerability ne convient que pour décrire des attaques one-try. Une mesure plus générale est la g-vulnerability, qui englobe plusieurs types d'adversaires, avec des objectifs et des capacités différents. Nous proposons donc une nouvelle approche basée sur la ML, qui repose sur le pre-processing des données, pour effectuer une estimation black-box de la g-vulnerability, en étudiant formellement la capacité d'apprentissage pour toutes les distributions de données et en évaluant les performances dans divers contextes expérimentaux. Dans la deuxième partie de cette thèse, nous abordons le problème de l'obscurcissement des informations sensibles tout en préservant leur utilité, et nous proposons une approche de ML inspirée du paradigme generative adversarial nets. L'idée est de mettre en place deux réseaux : le générateur, qui essaie de produire un mécanisme d'obscurcissement optimal pour protéger les données, et le classificateur, qui essaie de désobstruer les données. En laissant les deux réseaux se concurrencer, le mécanisme améliore son degré de protection, jusqu'à ce qu'un équilibre soit atteint. Nous appliquons notre méthode au cas de la location privacy, et nous effectuons des expériences sur des données synthétiques et sur des données réelles provenant de le dataset Gowalla. La performance du mécanisme d'obfuscation obtenu est évaluée en fonction de l'erreur de Bayes, qui représente l'adversaire le plus fort possible. Enfin, nous considérons que, dans les problèmes de classification, nous essayons de prévoir les classes en observant les valeurs des caractéristiques qui représentent les échantillons d'entrée. Les valeurs des classes et des caractéristiques peuvent être considérées respectivement comme des inputs secrètes et des outputs observables d'un système. Par conséquent, la mesure de information leakage d'un tel système est une stratégie permettant de distinguer les caractéristiques les plus et les moins informatives. La théorie de l'information peut être considérée comme un concept utile pour cette tâche, car le pouvoir de prédiction découle de la corrélation, c'est-à-dire de l'information mutuelle, entre les features et les labels. Nous comparons l'information mutuelle basée sur l'entropie de Shannon à celle basée sur la min-entropy de Rényi, tant du point de vue théorique qu'expérimental, en montrant qu'en général, les deux approches sont incomparables, dans le sens où, selon l'ensemble de données considéré, parfois la méthode basée sur l'entropie de Shannon surpasse celle basée sur la min-entropie de Rényi et parfois le contraire se produit
In recent years, there has been an increasing involvement of artificial intelligence and machine learning (ML) in countless aspects of our daily lives. In this PhD thesis, we study how notions of information theory and ML can be used to better measure and understand the information leaked by data and / or models, and to design solutions to protect the privacy of the shared information. We first explore the application of ML to estimate the information leakage of a system. We consider a black-box scenario where the system’s internals are either unknown, or too complicated to analyze, and the only available information are pairs of input-output data samples. Previous works focused on counting the frequencies to estimate the input-output conditional probabilities (frequentist approach), however this method is not accurate when the domain of possible outputs is large. To overcome this difficulty, the estimation of the Bayes error of the ideal classifier was recently investigated using ML models and it has been shown to be more accurate thanks to the ability of those models to learn the input-output correspondence. However, the Bayes vulnerability is only suitable to describe one-try attacks. A more general and flexible measure of leakage is the g-vulnerability, which encompasses several different types of adversaries, with different goals and capabilities. We therefore propose a novel ML based approach, that relies on data preprocessing, to perform black-box estimation of the g-vulnerability, formally studying the learnability for all data distributions and evaluating performances in various experimental settings. In the second part of this thesis, we address the problem of obfuscating sensitive information while preserving utility, and we propose a ML approach inspired by the generative adversarial networks paradigm. The idea is to set up two nets: the generator, that tries to produce an optimal obfuscation mechanism to protect the data, and the classifier, that tries to de-obfuscate the data. By letting the two nets compete against each other, the mechanism improves its degree of protection, until an equilibrium is reached. We apply our method to the case of location privacy, and we perform experiments on synthetic data and on real data from the Gowalla dataset. The performance of the obtained obfuscation mechanism is evaluated in terms of the Bayes error, which represents the strongest possible adversary. Finally, we consider that, in classification problems, we try to predict classes observing the values of the features that represent the input samples. Classes and features’ values can be considered respectively as secret input and observable outputs of a system. Therefore, measuring the leakage of such a system is a strategy to tell the most and least informative features apart. Information theory can be considered a useful concept for this task, as the prediction power stems from the correlation, i.e., the mutual information, between features and labels. We compare the Shannon entropy based mutual information to the Rényi min-entropy based one, both from the theoretical and experimental point of view showing that, in general, the two approaches are incomparable, in the sense that, depending on the considered dataset, sometimes the Shannon entropy based method outperforms the Rényi min-entropy based one and sometimes the opposite occurs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Buhot, Arnaud. „Etude de propriétés d'apprentissage supervisé et non supervisé par des méthodes de Physique Statistique“. Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00001642.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est l'étude de diverses propriétés d'apprentissage à partir d'exemples par des méthodes de Physique Statistique, notamment, par la méthode des répliques. Des tâches supervisées, correspondant à la classification binaire de données, ainsi que des tâches non supervisées, comme l'estimation paramétrique d'une densité de probabilité, sont considérées. Dans la première partie, une approche variationnelle permet de déterminer la performance de l'apprentissage optimal d'une direction d'anisotropie, et de déduire une fonction de coût permettant d'obtenir ces performances optimales. Dans le cas de l'apprentissage supervisé d'une tâche linéairement séparable, des simulations numériques confirmant nos résultats théoriques ont permis de déterminer les effets de taille finie. Dans le cas d'une densité de probabilité constituée de deux gaussiennes, la performance de l'apprentissage optimal présente de nombreuses transitions de phases en fonction du nombre de données. Ces résultats soulèvent une controverse entre la théorie variationnelle et l'approche bayesienne de l'apprentissage optimal. Dans la deuxième partie, nous étudions deux approches différentes de l'apprentissage de tâches de classification complexes. La première approche considérée est celle des machines à exemples supports. Nous avons étudié une famille de ces machines pour laquelle les séparateurs linéaire et quadratique sont deux cas particuliers. La capacité, les valeurs typiques de la marge et du nombre d'exemples supports, sont déterminées. La deuxième approche considérée est celle d'une machine de parité apprenant avec un algorithme incrémental. Cet algorithme construit progressivement un réseau de neurones à une couche cachée. La capacité théorique obtenue pour l'algorithme considéré est proche de celle de la machine de parité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Galibourg, Antoine. „Estimation de l'âge dentaire chez le sujet vivant : application des méthodes d'apprentissage machine chez les enfants et les jeunes adultes“. Electronic Thesis or Diss., Toulouse 3, 2022. http://thesesups.ups-tlse.fr/5355/.

Der volle Inhalt der Quelle
Annotation:
Exposé du problème : Chez l'individu vivant, l'estimation de l'âge dentaire est un paramètre utilisé en orthopédie ou en orthodontie dentofaciale, ou en pédiatrie pour situer l'individu sur sa courbe de croissance. En médecine légale l'estimation de l'âge dentaire permet d'inférer l'âge chronologique sous forme d'une régression ou d'une classification par rapport à un âge clé. Il existe des méthodes physiques et radiologiques. Si ces dernières sont plus précises, il n'existe pas de méthode universelle. Demirjian a créé il y a presque 50 ans la méthode radiologique la plus utilisée, mais elle est critiquée pour sa précision et pour l'utilisation de tables de références basées sur un échantillon de population franco-canadien. Objectif : L'intelligence artificielle et plus particulièrement l'apprentissage machine a permis le développement de différents outils ayant une capacité d'apprentissage sur une base de données annotées. L'objectif de cette thèse a été de comparer la performance de différents algorithmes d'apprentissage machine ; dans un premier temps par rapport à deux méthodes classiques d'estimation de l'âge dentaire, puis entre elles en ajoutant des prédicteurs supplémentaires. Matériel et méthode : Dans une première partie, les différentes méthodes d'estimation de l'âge dentaire sur des individus vivants enfants et jeunes adultes sont présentées. Les limites de ces méthodes sont exposées et les possibilités d'y répondre avec l'utilisation de l'apprentissage machine sont proposées. A partir d'une base de données de 3605 radiographies panoramiques d'individus âgés de 2 à 24 ans (1734 filles et 1871 garçons), différentes méthodes d'apprentissage machine ont été testées pour estimer l'âge dentaire. Les précisions de ces méthodes ont été comparées entre elles et par rapport à deux méthodes classiques de Demirjian et Willems. Ce travail a abouti à la parution d'un article dans l'International Journal of Legal Medicine. Dans une deuxième partie, les différentes méthodes d'apprentissage machine sont décrites et discutées. Puis les résultats obtenus dans l'article sont remis en perspective avec les publications sur le sujet en 2021. Enfin une mise en perspective des résultats des méthodes d'apprentissage machine par rapport à leur utilisation dans l'estimation de l'âge dentaire est réalisée. Résultats : Les résultats montrent que toutes les méthodes d'apprentissage machine présentent une meilleure précision que les méthodes classiques testées pour l'estimation de l'âge dentaire dans les conditions d'utilisation de ces dernières. Elles montrent également que l'utilisation du stade de maturation des troisièmes molaires sur une plage d'utilisation étendue à 24 ans ne permet pas l'estimation de l'âge dentaire pour une question légale. Conclusion : Les méthodes d'apprentissage machine s'intègrent dans le processus global d'automatisation de la détermination de l'âge dentaire. La partie spécifique d'apprentissage profond semble intéressante à investiguer pour des tâches de classification de l'âge dentaire
Statement of the problem: In the living individual, the estimation of dental age is a parameter used in orthopedics or dentofacial orthodontics or in pediatrics to locate the individual on its growth curve. In forensic medicine, the estimation of dental age allows to infer the chronological age for a regression or a classification task. There are physical and radiological methods. While the latter are more accurate, there is no universal method. Demirjian created the most widely used radiological method almost 50 years ago, but it is criticized for its accuracy and for using reference tables based on a French-Canadian population sample. Objective: Artificial intelligence, and more particularly machine learning, has allowed the development of various tools with a learning capacity on an annotated database. The objective of this thesis was to compare the performance of different machine learning algorithms first against two classical methods of dental age estimation, and then between them by adding additional predictors. Material and method: In a first part, the different methods of dental age estimation on living children and young adults are presented. The limitations of these methods are exposed and the possibilities to address them with the use of machine learning are proposed. Using a database of 3605 panoramic radiographs of individuals aged 2 to 24 years (1734 girls and 1871 boys), different machine learning methods were tested to estimate dental age. The accuracies of these methods were compared with each other and with two classical methods by Demirjian and Willems. This work resulted in an article published in the International Journal of Legal Medicine. In a second part, the different machine learning methods are described and discussed. Then, the results obtained in the article are put in perspective with the publications on the subject in 2021. Finally, a perspective of the results of the machine learning methods in relation to their use in dental age estimation is made. Results: The results show that all machine learning methods have better accuracy than the conventional methods tested for dental age estimation under the conditions of their use. They also show that the use of the maturation stage of third molars over an extended range of use to 24 years does not allow the estimation of dental age for a legal issue. Conclusion: Machine learning methods fit into the overall process of automating dental age determination. The specific part of deep learning seems interesting to investigate for dental age classification tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Cappelaere, Charles-Henri. „Estimation du risque de mort subite par arrêt cardiaque à l'aide de méthodes d'apprentissage artificiel“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://pastel.archives-ouvertes.fr/pastel-00939082.

Der volle Inhalt der Quelle
Annotation:
On dénombre plus de 40 000 cas de morts subites en France, chaque année. Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque. Nombre de ces implantations semblent prématurées : une étude récente a révélé que 81% des DAI implantés chez les patients étudiés n'ont jamais délivré de thérapie pendant les cinq années suivant l'implantation. Cette constatation soulève un problème en raison des complications post-opératoires encourues par les patients porteurs d'un défibrillateur implantable. Avec la rupture de sonde, les chocs électriques engendrés inutilement (c'est-à-dire lorsque la vie du patient n'est pas menacée) par le défibrillateur sont les complications les plus fréquentes : des études ont montré que 13% à 17% des patients porteurs d'un défibrillateur implanté ont subi au moins un choc inutile, susceptible de fragiliser le tissu cardiaque. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients candidats. Le pouvoir prédictif de mort subite des différents descripteurs des enregistrements électrocardiographiques de longue durée (Holter) a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs de l'enregistrement Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements Holter de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. En mettant à profit les connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, à l'aide d'une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, lui aussi, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque (pour lesquels il recommande l'implantation), des patients pour lesquels l'implantation ne paraît pas opportune. À l'issue de notre étude, et au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Zoubeirou, A. Mayaki Mansour. „Méthodes d'apprentissage profond pour la détection d'anomalies et de changement de régimes : application à la maintenance prédictive dans des systèmes embarqués“. Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4010.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de l'Industrie 4.0 et de l'Internet des Objets (IoT), la maintenance prédictive est devenue cruciale pour optimiser la performance et la durée de vie des dispositifs et équipements électroniques. Cette approche, qui repose sur une analyse extensive des données, est basée sur deux concepts essentiels : la détection d'anomalies et la détection de dérive.La détection d'anomalies est essentielle pour identifier les écarts par rapport aux normes établies, signalant des problèmes potentiels tels que les dysfonctionnements des équipements. La détection de dérive, en revanche, suit les changements dans les distributions de données au fil du temps, abordant la "dérive conceptuelle" pour maintenir la pertinence des modèles prédictifs dans des systèmes industriels en évolution. Cette thèse souligne non seulement la relation synergique entre ces techniques, mais met également en lumière leur impact collectif dans les stratégies de maintenance proactive.Nous abordons les défis de la maintenance prédictive tels que la qualité des données, l'étiquetage, les complexités des systèmes industriels, les nuances de la détection de dérive et les exigences du traitement en temps réel.Une partie importante de cette recherche se concentrera sur la manière d'adapter et d'utiliser ces techniques dans le contexte des systèmes embarqués.Les contributions de ce travail sont à la fois théoriques et appliquées, s'étendant aux économies de coûts, à la réduction de l'impact environnemental et s'alignant sur les avancées de l'Industrie 4.0. La maintenance prédictive est positionnée comme un élément clé de la nouvelle ère d'efficacité et de durabilité industrielle.Cette étude introduit de nouvelles méthodes utilisant des techniques statistiques et d'apprentissage automatique, efficaces dans diverses applications industrielles
In the context of Industry 4.0 and the Internet of Things (IoT), predictive maintenance has become vital for optimizing the performance and lifespan of electronic devices and equipment. This approach, reliant on extensive data analysis, stands on two pillars: anomaly detection and drift detection. Anomaly detection plays a crucial role in identifying deviations from established norms, thereby flagging potential issues such as equipment malfunctions.Drift detection, on the other hand, monitors changes in data distributions over time. It addresses "concept drift" to ensure the continued relevance of predictive models in evolving industrial systems. This thesis highlights the synergistic relationship between these two techniques, demonstrating their collective impact in proactive maintenance strategies. We address various challenges in predictive maintenance such as data quality, labeling, complexities of industrial systems, the nuances of drift detection and the demands of real-time processing. A significant part of this research will focus on how to adapt and use these techniques in the context of embedded systems. The significance of this work extends to cost savings, environmental impact reduction and aligning with the advancements in Industry 4.0, positioning predictive maintenance as a key component in the new era of industrial efficiency and sustainability.This study introduces novel methods employing statistical and machine learning techniques, validated in various industrial settings like modern manufacturing plants. These methods, both theoretical and applied, effectively address the challenges of predictive maintenance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Glaude, Hadrien. „Méthodes des moments pour l’inférence de systèmes séquentiels linéaires rationnels“. Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10107/document.

Der volle Inhalt der Quelle
Annotation:
L’apprentissage de modèles stochastiques générant des séquences a de nombreuses applications en traitement de la parole, du langage ou bien encore en bio-informatique. Les Automates à Multiplicité (MA) sont des modèles graphiques à variables latentes qui englobent une grande variété de systèmes linéaires pouvant en particulier représenter des langues stochastiques, des processus stochastiques ainsi que des processus contrôlés. Les algorithmes traditionnels d’apprentissage comme celui de Baum-Welch sont itératifs, lent et peuvent converger vers des optima locaux. Une alternative récente consiste à utiliser la méthode des moments (MoM) pour concevoir des algorithmes rapides et consistent avec des garanties pseudo-PAC. Cependant, les algorithmes basés sur la MoM ont deux inconvénients principaux. Tout d'abord, les garanties PAC ne sont valides que si la dimension du modèle appris correspond à la dimension du modèle cible. Deuxièmement, bien que les algorithmes basés sur la MoM apprennent une fonction proche de la distribution cible, la plupart ne contraignent pas celle-ci à être une distribution. Ainsi, un modèle appris à partir d’un nombre fini d’exemples peut renvoyer des valeurs négatives et qui ne somment pas à un. Ainsi, cette thèse s’adresse à ces deux problèmes. D’abord, nous proposons un élargissement des garanties théoriques pour les modèles compressés, ainsi qu’un algorithme spectral régularisé qui adapte la taille du modèle aux données. Puis, une application en guerre électronique est aussi proposée pour le séquencement des écoutes du récepteur superhétérodyne. D’autre part, nous dérivons de nouveaux algorithmes d’apprentissage ne souffrant pas du problème des probabilités négatives et dont certains bénéficient de garanties PAC
Learning stochastic models generating sequences has many applications in natural language processing, speech recognitions or bioinformatics. Multiplicity Automata (MA) are graphical latent variable models that encompass a wide variety of linear systems. In particular, they can model stochastic languages, stochastic processes and controlled processes. Traditional learning algorithms such as the one of Baum-Welch are iterative, slow and may converge to local optima. A recent alternative is to use the Method of Moments (MoM) to design consistent and fast algorithms with pseudo-PAC guarantees. However, MoM-based algorithms have two main disadvantages. First, the PAC guarantees hold only if the size of the learned model corresponds to the size of the target model. Second, although these algorithms learn a function close to the target distribution, most do not ensure it will be a distribution. Thus, a model learned from a finite number of examples may return negative values or values that do not sum to one. This thesis addresses both problems. First, we extend the theoretical guarantees for compressed models, and propose a regularized spectral algorithm that adjusts the size of the model to the data. Then, an application in electronic warfare is proposed to sequence of the dwells of a super-heterodyne receiver. Finally, we design new learning algorithms based on the MoM that do not suffer the problem of negative probabilities. We show for one of them pseudo-PAC guarantees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Roger, Vincent. „Modélisation de l'indice de sévérité du trouble de la parole à l'aide de méthodes d'apprentissage profond : d'une modélisation à partir de quelques exemples à un apprentissage auto-supervisé via une mesure entropique“. Thesis, Toulouse 3, 2022. http://www.theses.fr/2022TOU30180.

Der volle Inhalt der Quelle
Annotation:
Les personnes atteintes de cancers des voies aérodigestives supérieures présentent des difficultés de prononciation après des chirurgies ou des radiothérapies. Il est important pour le praticien de pouvoir disposer d'une mesure reflétant la sévérité de la parole. Pour produire cette mesure, il est communément pratiqué une étude perceptive qui rassemble un groupe de cinq à six experts cliniques. Ce procédé limite l'usage de cette évaluation en pratique. Ainsi, la création d'une mesure automatique, semblable à l'indice de sévérité, permettrait un meilleur suivi des patients en facilitant son obtention. Pour réaliser une telle mesure, nous nous sommes appuyés sur une tâche de lecture, classiquement réalisée. Nous avons utilisé les enregistrements du corpus C2SI-RUGBI qui rassemble plus de 100 personnes. Ce corpus représente environ une heure d'enregistrement pour modéliser l'indice de sévérité. Dans ce travail de doctorat, une revue des méthodes de l'état de l'art sur la reconnaissance de la parole, des émotions et du locuteur utilisant peu de données a été entreprise. Nous avons ensuite essayé de modéliser la sévérité à l'aide d'apprentissage par transfert et par apprentissage profond. Les résultats étant non utilisables, nous nous sommes tourné sur les techniques dites "few shot" (apprentissage à partir de quelques exemples seulement). Ainsi, après de premiers essais prometteurs sur la reconnaissance de phonèmes, nous avons obtenu des résultats prometteurs pour catégoriser la sévérité des patients. Néanmoins, l'exploitation de ces résultats pour une application médicale demanderait des améliorations. Nous avons donc réalisé des projections des données de notre corpus. Comme certaines tranches de scores étaient séparables à l'aide de paramètres acoustiques, nous avons proposé une nouvelle méthode de mesure entropique. Celle-ci est fondée sur des représentations de la parole autoapprise sur le corpus Librispeech : le modèle PASE+, qui est inspiré de l'Inception Score (généralement utilisé en image pour évaluer la qualité des images générées par les modèles). Notre méthode nous permet de produire un score semblable à l'indice de sévérité avec une corrélation de Spearman de 0,87 sur la tâche de lecture du corpus cancer. L'avantage de notre approche est qu'elle ne nécessite pas des données du corpus C2SI-RUGBI pour l'apprentissage. Ainsi, nous pouvons utiliser l'entièreté du corpus pour l'évaluation de notre système. La qualité de nos résultats nous a permis d'envisager une utilisation en milieu clinique à travers une application sur tablette : des tests sont d'ailleurs en cours à l'hôpital Larrey de Toulouse
People with head and neck cancers have speech difficulties after surgery or radiation therapy. It is important for health practitioners to have a measure that reflects the severity of speech. To produce this measure, a perceptual study is commonly performed with a group of five to six clinical experts. This process limits the use of this assessment in practice. Thus, the creation of an automatic measure, similar to the severity index, would allow a better follow-up of the patients by facilitating its obtaining. To realise such a measure, we relied on a reading task, classically performed. We used the recordings of the C2SI-RUGBI corpus, which includes more than 100 people. This corpus represents about one hour of recording to model the severity index. In this PhD work, a review of state-of-the-art methods on speech, emotion and speaker recognition using little data was undertaken. We then attempted to model severity using transfer learning and deep learning. Since the results were not usable, we turned to the so-called "few shot" techniques (learning from only a few examples). Thus, after promising first attempts at phoneme recognition, we obtained promising results for categorising the severity of patients. Nevertheless, the exploitation of these results for a medical application would require improvements. We therefore performed projections of the data from our corpus. As some score slices were separable using acoustic parameters, we proposed a new entropic measurement method. This one is based on self-supervised speech representations on the Librispeech corpus: the PASE+ model, which is inspired by the Inception Score (generally used in image processing to evaluate the quality of images generated by models). Our method allows us to produce a score similar to the severity index with a Spearman correlation of 0.87 on the reading task of the cancer corpus. The advantage of our approach is that it does not require data from the C2SI-RUGBI corpus for training. Thus, we can use the whole corpus for the evaluation of our system. The quality of our results has allowed us to consider a use in a clinical environment through an application on a tablet: tests are underway at the Larrey Hospital in Toulouse
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Cornec, Matthieu. „Inégalités probabilistes pour l'estimateur de validation croisée dans le cadre de l'apprentissage statistique et Modèles statistiques appliqués à l'économie et à la finance“. Phd thesis, Université de Nanterre - Paris X, 2009. http://tel.archives-ouvertes.fr/tel-00530876.

Der volle Inhalt der Quelle
Annotation:
L'objectif initial de la première partie de cette thèse est d'éclairer par la théorie une pratique communément répandue au sein des practiciens pour l'audit (ou risk assessment en anglais) de méthodes prédictives (ou prédicteurs) : la validation croisée (ou cross-validation en anglais). La seconde partie s'inscrit principalement dans la théorie des processus et son apport concerne essentiellement les applications à des données économiques et financières. Le chapitre 1 s'intéresse au cas classique de prédicteurs de Vapnik-Chernovenkis dimension (VC-dimension dans la suite) finie obtenus par minimisation du risque empirique. Le chapitre 2 s'intéresse donc à une autre classe de prédicteurs plus large que celle du chapitre 1 : les estimateurs stables. Dans ce cadre, nous montrons que les méthodes de validation croisée sont encore consistantes. Dans le chapitre 3, nous exhibons un cas particulier important le subagging où la méthode de validation croisée permet de construire des intervalles de confiance plus étroits que la méthodologie traditionnelle issue de la minimisation du risque empirique sous l'hypothèse de VC-dimension finie. Le chapitre 4 propose un proxy mensuel du taux de croissance du Produit Intérieur Brut français qui est disponible officiellement uniquement à fréquence trimestrielle. Le chapitre 5 décrit la méthodologie pour construire un indicateur synthétique mensuel dans les enquêtes de conjoncture dans le secteur des services en France. L'indicateur synthétique construit est publié mensuellement par l'Insee dans les Informations Rapides. Le chapitre 6 décrit d'un modèle semi-paramétrique de prix spot d'électricité sur les marchés de gros ayant des applications dans la gestion du risque de la production d'électricité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Harrar-Eskinazi, Karine. „Dyslexie développementale et méthodes de remédiation : Conception et évaluation d'un programme d'intervention multimodale et multi-componentielle fondé sur les approches phonologique, visuo-attentionnelle et intermodalitaire“. Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ2025.

Der volle Inhalt der Quelle
Annotation:
Parmi les troubles du langage écrit, la dyslexie développementale est définie comme un trouble spécifique de l'apprentissage du langage écrit dont les répercussions sur les apprentissages scolaires, durables et délétères, nécessitent des réponses thérapeutiques efficaces. Les études sur la remédiation de la dyslexie développementale sont généralement fondées sur l'hypothèse causale d'une altération plus ou moins exclusive d'un processus cognitif sous-jacent. Or, chez la majorité des lecteurs dyslexiques, de multiples déficits cognitifs sous-jacents, variables selon les individus, seraient simultanément responsables des troubles comportementaux de la lecture et de l'orthographe. Ainsi, une multifactorialité étiologique de la dyslexie développementale entraîne une hétérogénéité sémiologique qui s'exprime dans une variabilité clinique très complexe dont les contours imprécis peuvent entraîner un diagnostic incertain, ce que nous avons nommé variabilité nosographique.Dans ce contexte théorique et à la lumière des modèles à déficits multiples de la dyslexie développementale, nous avons élaboré un protocole de remédiation multimodale et multi-componentielle ciblant à la fois les processus cognitifs sous-jacents audio-phonologiques, visuo-attentionnels et intermodalitaires et les troubles de la lecture et de l'orthographe, selon une approche qui combine plusieurs entrainements conçus en fonction du profil sémiologique individuel. Grâce à la participation de 94 orthophonistes, nous avons évalué les bénéfices de ce protocole à partir d'un essai clinique, multicentrique, longitudinal, randomisé, croisé, mené en trois phases sur une durée totale de 16 mois, auprès de 144 lecteurs dyslexiques âgés de 8 à 13 ans. Lors de la première phase, les participants répartis aléatoirement en deux groupes, ont bénéficié pendant 2 mois de consultations de rééducation orthophonique hebdomadaires sans entraînement intensif. Lors de la deuxième phase, les participants ont bénéficié, outre leur suivi hebdomadaire, de trois types d'interventions intensives informatisées d'une durée de deux mois chacune. Les deux premières interventions ciblent les processus audio-phonologiques et visuo-attentionnels (dont l'ordre est contrebalancé entre les deux groupes) puis sont suivies d'une intervention qui cible les processus intermodalitaires. La construction des trois programmes d'entraînement s'est appuyée sur la littérature scientifique, l'expertise des orthophonistes, la plainte du patient (décision partagée de soin) et sur le contexte environnemental. Lors de la troisième phase, les interventions intensives ont été interrompues et les consultations hebdomadaires de rééducation orthophonique maintenues pendant deux mois. A l'issue du protocole de remédiation, les effets de l'intervention multimodale et multi-componentielle intensive ont montré une amélioration significative de l'efficience en lecture (d de Cohen=2,3), de la compréhension en lecture (d de Cohen=0,9) et de l'orthographe (d de Cohen=0,78), comparée à une rééducation orthophonique hebdomadaire (première phase), et ce quel que soit l'ordre des interventions. L'analyse de cas multiples a révélé qu'à l'issue du protocole de remédiation 52 % des participants n'avaient plus de trouble de la lecture. En conclusion, nos résultats montrent l'efficacité d'une remédiation intensive multimodale et multi-componentielle dans le traitement de la dyslexie développementale. Ces résultats confirment le caractère davantage curatif que compensatoire de nos interventions et ouvrent une nouvelle piste pour la remédiation de la dyslexie développementale
Dyslexia is a neurodevelopmental disorder that affects children's ability to read and spell words accurately and effectively. Most remediation studies are based on the hypothesis that the core deficit in dyslexic children is based on a single underlying cognitive deficit. However, a large number of studies suggest that most dyslexic children exhibit multiple underlying cognitive deficits that are simultaneously present to varying degrees, leading to a wide range of clinical disorders in reading and spelling. Thus, etiological multifactoriality in developmental dyslexia leads to semiological heterogeneity which explains clinical variability and leads to complex diagnosis, which we called nosographic variability. In line with multi-deficit models of developmental dyslexia, we designed and evaluated a remediation study with a multimodal and multi-componential protocol, which aimed at enhancing both underlying cognitive processes (audio-phonological, visual-attentional, and crossmodal) and reading and spelling procedures, using several training programs and taking into account the child's semiological profile.We assessed benefits of the protocol through a multicenter, longitudinal, randomized, crossover and clinical trial including 3 stages that lasted for a total duration of 16 months. An overall of 94 speech and language therapists and 144 dyslexic readers (aged around 8-13 years) participated in the study.In the first phase, participants were randomly assigned to 2 groups and received weekly speech and language therapy for 2 months without intensive training. In the second phase, in addition to weekly follow-up sessions with the speech therapist, participants received 3 types of intensive computer-based interventions for 2 months each. The first 2 interventions focused on audio-phonological and visual-attentional processes (the order of which was counterbalanced between the 2 groups) and were followed by a third intervention that focused on cross-modal integration processes. The construction of the 3 training programs was based on the scientific literature, the expertise of the speech and language therapists, the patient's complaint (shared care decision) and the environmental context. In the third phase, intensive interventions were discontinued and weekly speech therapy consultations were continued for two months. At the end of the remediation protocol, the multimodal and multi-componential intensive intervention lead to significant improvement in reading efficiency (Cohen's d=2.3), reading comprehension (Cohen's d=0.9), and spelling (Cohen's d=0.78), compared to the weekly speech and language therapy (first phase), and regardless of the order of the interventions. Multiple-case analysis revealed that 52 % of participants were reading disorder free.In conclusion, our results show that an intensive intervention based on a multi-componential and multimodal training program produces major benefits in the treatment of developmental dyslexia. These findings are consistent with a curative (rather than a compensatory) approach for remediation and open up a new avenue for developmental dyslexia treatment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Gaguet, Laurent. „Attitudes mentales et planification en intelligence artificielle : modélisation d'un agent rationnel dans un environnement multi-agents“. Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF20023.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est d'élaborer un modèle d'agent rationnel capable de planifier ses comportements à partir de ses attitudes mentales. Ce modèle doit permettre de spécifier un agent particulier du système multi-agents développé dans le cadre du projet AMICAL sur l'étude et le développement d'environnements informatiques d'aide à l'apprentissage de la lecture. Après avoir présenté différents aspects de la modélisation des agents dans les approches existantes, nous abordons plus particulièrement le rôle que peuvent jouer les attitudes mentales dans le comportement et la manière dont un plan d'actions peut être conçu comme un processus mental. Ces principes permettent de définir les notions qui sont modélisées par la suite, qui portent sur le raisonnement dont l'agent dispose pour adopter des objectifs, actualiser son état mental et délibérer sur celui-ci afin de planifier ses comportements futurs ou agir dans son environnement. Les représentations utilisées et produites par l'agent au cours du raisonnement regroupent d'une part ses connaissances opératoires en planification et sur son domaine d'expertise, et d'autre part ses différentes composantes mentales. La modélisation de ces différentes notions permet ensuite de spécifier, sous une forme algorithmique, les différents processus internes que l'agent met en oeuvre au cours d'un cycle comportemental pour atteindre des objectifs sur un domaine d'expertise. Ce modèle d'agent est ensuite validé à partir d'exemples de fonctionnement sur des connaissances opératoires types. Nous montrons notamment comment les différentes composantes mentales de l'agent évoluent au cours du raisonnement. Pour finir, nous abordons les principes d'une opérationalisation du modèle d'agent dans AMICAL, et nous situons les apports et les perspectives de cette approche par rapport aux enjeux qui ont été définis au début de l'étude
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Cléder, Catherine. „Planification didactique et construction de l'objectif d'une session de travail individualisée : modélisation des connaissances et du raisonnement mis en jeu“. Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF20019.

Der volle Inhalt der Quelle
Annotation:
Le problème posé est celui d'une planification didactique individualisée dans un système tutoriel intelligent. Le travail s'est effectué dans le cadre du projet AMICAL, Architecture Multi-Agents Interactive, Compagnon pour l'Apprentissage de la Lecture. Nous nous proposons une modélisation des étapes de raisonnement pour construire l'objectif d'une session de travail, premier objet de la planification didactique. Ce raisonnement s'appuie sur cinq bases de connaissances : linguistique, savoir-faire lecture, didactique, pédagogique, et représentation de l'élève. Pour chacune de ces bases, nous proposons aussi des éléments de modélisation. Dans AMICAL, la planification est à la charge d'un agent rationnel spécifique, ainsi, nous proposons une caractérisation de l'agent de construction de l'objectif. Ces différentes hypothèses ont été opérationnalisées pour partie, dans un prototype que nous présentons dans le premier chapitre
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Pélissier, Chrysta. „Fonctionnalités et méthodologie de conception d'un module de type ressource : application dans un environnement informatique d'aide à l'apprentissage de la lecture“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2002. http://tel.archives-ouvertes.fr/tel-00661571.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de présenter les fonctionnalités et une méthodologie de conception associées à un module de type ressource dans un environnement informatique dédié à l'apprentissage d'un domaine. Nous nous sommes plus particulièrement intéressée au domaine de l'apprentissage de la lecture. D'une part nous présentons les différentes problématiques qui se posent dans le cadre de la conception de ce type de module et d'autre part, nous les illustrons par des exemples et la réalisation d'un premier prototype informatique, le Module Ressource Lexical (MRL). Dans un premier chapitre, nous décrivons le cadre dans lequel se situe notre recherche, le projet AMICAL (Architecture Multi-agents Compagnon pour l'Apprentissage de la Lecture) du Laboratoire de Recherche sur le Langage. Ensuite, nous positionnons le MRL par rapport aux dictionnaires pour enfants, commercialisés aujourd'hui. Puis, dans les chapitres 3, 4 et 5 nous présentons les problèmes liés à la conception de ce type de module. Le chapitre 3 présente plus particulièrement les problèmes liés aux informations associées à chaque unité lexicale dans le module ainsi qu'à leur mode de présentation. Dans le chapitre 4, nous abordons les problèmes liés à l'accès au contenu du module, c'est-à-dire aux modes de sélection d'une unité lexicale, à la navigation et au guidage de l'apprenant lors de la consultation. Dans le chapitre 5, nous décrivons l'architecture informatique associée à ce type de module et enfin, dans un dernier chapitre, nous présentons des éléments liés à la spécification et à l'implémentation d'un premier prototype informatique du MRL
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Boussier, Jean-Marie. „Modélisation de comportements dans les systèmes dynamiques : Application à l'organisation et à la régulation de stationnement et de déplacement dans les Systèmes de Trafic Urbain“. Phd thesis, Université de La Rochelle, 2007. http://tel.archives-ouvertes.fr/tel-00411272.

Der volle Inhalt der Quelle
Annotation:
L'objectif de nos travaux est de développer un cadre méthodique afin de modéliser les préférences, les changements de comportement des individus ainsi que leurs impacts sur l'état d'un système complexe dans un contexte dynamique. L'utilisateur doit simuler les conséquences des politiques de transports et d'urbanisme sur l'offre et demande de stationnement, étape essentielle. Modéliser les préférences hétérogènes des usagers, intégrer des connaissances, selon des logiques comportementales différentes, ont justifié l'approche multi agents. Afin d'avoir des représentations adaptatives et évolutives des comportements des agents individus, les processus décisionnels et d'apprentissage sont modélisés au moyen d'un panier d'outils issus de l'optimisation des procédés industriels, des techniques Data Mining, de marketing. L'emploi personnalisé du simulateur avec l'interactivité utilisateursimulateur a motivé l'adaptation de ce cadre méthodique à la simulation des systèmes complexes sociétaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Faghihi, Usef. „Méthodes d'apprentissage inspirées de l'humain pour un tuteur cognitif artificiel“. Mémoire, 2008. http://www.archipel.uqam.ca/1392/1/M10320.pdf.

Der volle Inhalt der Quelle
Annotation:
Les systèmes tuteurs intelligents sont considérés comme un remarquable concentré de technologies qui permettent un processus d'apprentissage. Ces systèmes sont capables de jouer le rôle d'assistants voire même de tuteur humain. Afin d'y arriver, ces systèmes ont besoin de maintenir et d'utiliser une représentation interne de l'environnement. Ainsi, ils peuvent tenir compte des évènements passés et présents ainsi que de certains aspects socioculturels. Parallèlement à l'évolution dynamique de l'environnement, un agent STI doit évoluer en modifiant ses structures et en ajoutant de nouveaux phénomènes. Cette importante capacité d'adaptation est observée dans le cas de tuteurs humains. Les humains sont capables de gérer toutes ces complexités à l'aide de l'attention et du mécanisme de conscience (Baars B. J., 1983, 1988), et (Sloman, A and Chrisley, R., 2003). Toutefois, reconstruire et implémenter des capacités humaines dans un agent artificiel est loin des possibilités actuelles de la connaissance de même que des machines les plus sophistiquées. Pour réaliser un comportement humanoïde dans une machine, ou simplement pour mieux comprendre l'adaptabilité et la souplesse humaine, nous avons à développer un mécanisme d'apprentissage proche de celui de l'homme. Ce présent travail décrit quelques concepts d'apprentissage fondamentaux implémentés dans un agent cognitif autonome, nommé CTS (Conscious Tutoring System) développé dans le GDAC (Dubois, D., 2007). Nous proposons un modèle qui étend un apprentissage conscient et inconscient afin d'accroître l'autonomie de l'agent dans un environnement changeant ainsi que d'améliorer sa finesse. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Apprentissage, Conscience, Agent cognitif, Codelet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Ziri, Oussama. „Classification de courriels au moyen de diverses méthodes d'apprentissage et conception d'un outil de préparation des données textuelles basé sur la programmation modulaire : PDTPM“. Mémoire, 2013. http://www.archipel.uqam.ca/5679/1/M12851.pdf.

Der volle Inhalt der Quelle
Annotation:
Les technologies numériques de l'information et de la communication sont de plus en plus utilisées. Certes, ces technologies offrent des moyens de communication pratiques, mais elles soulèvent des préoccupations concernant la protection de la vie privée et le respect en ligne. Les utilisations malveillantes des courriels ne cessent de croître et la quantité de spams a rendu pratiquement impossible d'analyser les courriels manuellement. Vu ces problématiques, le besoin de techniques automatisées, capables d'analyser des données est devenu primordial. Plusieurs applications se basant sur l'apprentissage automatique se sont établies pour analyser des données textuelles de grand volume. Les techniques du « Text Mining » analysent des données textuelles en utilisant des méthodes d'apprentissage automatique afin d'extraire les principales tendances. Cependant, les techniques de « Text Mining » ne sont capables d'être utilisées que si les données sont déjà préparées et bien structurées. Cette recherche a deux objectifs : 1) Concevoir un outil original de préparation de données qui offre et regroupe des fonctionnalités primordiales dans l'étape de préparation de données textuelles. Nous n'avons pas trouvé ces fonctionnalités dans d'autres outils de préparation de données (Sato, Alceste, WordStat, NLTK) ce qui a créé un besoin de concevoir notre logiciel. Nous l'avons appelé outil de Préparation de Données Textuelles basé sur la Programmation Modulaire, PDTPM. 2) Application des méthodes d'apprentissage automatiques dédiées au « Text Mining » pour classifier un ensemble de courriels et détecter les spams. Pour le premier objectif, après avoir étudié le processus de préparation de données, l'étude propose un outil de Préparation de Données Textuelles. Cette plateforme permet de considérer en entrée un ensemble de données textuelles brutes et de générer en sortie ces données sous une forme bien structurée qui consiste en une matrice de données documents-mots. En ce qui concerne le deuxième objectif de notre recherche, nous explorons des courriels d'une base de données publique, Lingspam, pour les classifier au moyen de méthodes d'apprentissage automatique en spams et courriels légitimes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : text mining, apprentissage automatique, préparation des données textuelles, détection de spams, filtrage de courriels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie