To see the other types of publications on this topic, follow the link: Apprentissage automatique dynamique.

Dissertations / Theses on the topic 'Apprentissage automatique dynamique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage automatique dynamique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Quoy, Mathias. "Apprentissage dans les réseaux neuromimétiques à dynamique chaotique." Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0009.

Full text
Abstract:
Nous avons défini un modèle de réseaux de neurones à temps discret possédant une dynamique chaotique. Nous nous sommes intéressés à la mise en évidence au sein de cette classe de réseaux de la plage de valeurs des paramètres pour laquelle la dynamique est chaotique, à la modification de la dynamique sous influence externe, aux règles d'apprentissage associant des cycles limites à des motifs, et à la réduction de dynamique du chaos à des cycles limites (ou à du chaos de plus faible dimension) par apprentissage etpar présentation de motifs. Nous présentons les équations de champ moyen et les simulations numériques permettant d'établir ces résultats. En ce qui concerne l'apprentissage proprement dit, les règles que nous avons choisies sont du type hebbiennes. L'itération continue de ces règles à partir d'un réseau chaotique réduit toujours la dynamique du système successivement sur des attracteurs étrangs de dimension fractale plus petite, puis sur des tores T2, des cycles limites, et finalement un point fixe. On peut donc associer au motif appris un des attracteurs atteint au cours de l'apprentissage. Après apprentissage, la dynamique spontanée du réseau (sans motif présenté) reste chaotique. La présentation d'autres motifs laisse aussi la dynamique du réseau globalement chaotique. Le réseau répond donc successivement au motif appris. La présentation d'un motif bruité entraîne en moyenne la convergence vers un attracteur proche de celui qui a été appris.
APA, Harvard, Vancouver, ISO, and other styles
2

Calvelo, Aros Daniel. "Apprentissage de modèles e la dynamique pour l'aide à la décision en monitorage clinique." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-351.pdf.

Full text
Abstract:
L'aide à la décision en milieu clinique passe essentiellement par la mise à disposition du praticien d'information synthétique à partir des données techniquement disponibles. Une méthodologie d'analyse de données en soins intensifs est proposée dans l'objectif de synthétiser l'historique des données du monitorage courant. Elle dégage des moyens de visualisation et d'abstraction, tout en retardant l'introduction de la connaissance d'expert. Les données disponibles sont bruitées, quantifiées, filtrées, intermittentes, ce qui oriente les choix et oblige à adapter les traitements. Une chaîne de traitement en trois étapes est exposée et illustrée à partir de données artificielles et réelles. La première étape repose sur l'extraction de la tendance locale, estimée par régression linéaire suivant une méthode efficace par filtrage et approche incrémentale. Cette méthode nécessite la détermination d'une échelle caractéristique d'évolution pour chaque variable. Pour la définir plusieurs critères sont proposés, formalisés puis évalués. Un critère base sur le test statistique de signification des régressions est retenu. La deuxième étape consiste en la symbolisation de la dynamique locale de chaque variable. Elle est basée sur la projection des données à l'échelle caractéristique dans l'espace tendance Vs. Stabilité. Enfin, une étape d'analyse multivariée construit des modèles symboliques locaux par induction d'arbres de décision. La succession des modèles permet de détecter des changements dans la configuration des relations entre les variables. Après une discussion sur les objectifs, les critères retenus, et les difficultés d'évaluation, nous concluons sur l'intégration de ces techniques dans la plate-forme d'aide au diagnostic Aiddiag. Chaque pallier de la chaîne de traitement propose une méthodologie et une représentation, exploitables à des niveaux d'interprétation de plus en plus élevés, et probablement transposables à d'autres flots de données semblables.
APA, Harvard, Vancouver, ISO, and other styles
3

Gelly, Sylvain. "Une contribution à l'apprentissage par renforcement : application au Computer Go." Paris 11, 2007. http://www.theses.fr/2007PA112227.

Full text
Abstract:
Le domaine de l'Apprentissage par Renforcement (AR) se trouve à l'interface entre la théorie du contrôle, l'apprentissage supervisé et non-supervisé, l'optimisation et les sciences cognitives, et est un domaine très actif de par ses applications et les problèmes non résolus. Cette thèse apporte quelques contributions dans ce domaine, principalement sur trois axes. Le 1er axe correspond à la modélisation de l'environnement, i. E. à l'apprentissage de la fonction de transition entre deux pas de temps. L'apprentissage et l'utilisation de ce modèle se fait efficacement dans les approches factorisées. Les Réseaux Bayesiens sont un moyen de représenter ce type de modèle, et dans ce domaine le travail présenté propose un nouveau critère d'apprentissage, à la fois pour le paramétrique (probabilités conditionnelles) et non-paramétrique (structure). Le 2ème axe est une étude du cas de l'AR en continu (espace d'état et d'action), à partir de l'algorithme de résolution par programmation dynamique. Cette analyse s'attaque à trois étapes fondamentales de cet algorithme: l'optimisation (choix de l'action à partir de la fonction de valeurs (FV)), l'apprentissage supervisé (regression) de la FV et le choix des exemples sur lesquels apprendre (apprentissage actif). Le 3ème axe de contribution correspond au domaine applicatif du jeu de Go, qui est un cas discret et de grande dimension qui reste un grand challenge pour les algorithmes d'AR. Dans ce domaine, les algorithmes utilisés et améliorés ont permis au programme résultant, MoGo de gagner de nombreuses compétitions internationales et devenant par exemple le premier programme jouant à un niveau dan amateur sur plateau 9x9
Reinforcement Learning (RL) is at the interface of control theory, supervised and unsupervised learning, optimization and cognitive sciences. While RL addresses many objectives with major economic impact, it raises deep theoretical and practical difficulties. This thesis brings some contributions to RL, mainly on three axis. The first axis corresponds to environment modeling, i. E. Learning the transition function between two time steps. Factored approaches give an efficiently framework for the learning and use of this model. The Bayesian Networks are a tool to represent such a model, and this work brings new learning criterion, either in parametric learning (conditional probabilities) and non parametric (structure). The second axis is a study in continuous space and action RL, thanks to the dynamic programming algorithm. This analysis tackles three fundamental steps: optimization (action choice from the value function), supervised learning (regression) of the value function and choice of the learning examples (active learning). The third axis tackles the applicative domain of the game of Go, as a high dimensional discrete control problem, one of the greatest challenge in Machine Learning. The presented algorithms with their improvements made the resulting program, MoGo, win numerous international competitions, becoming for example the first go program playing at an amateur dan level on 9x9
APA, Harvard, Vancouver, ISO, and other styles
4

Soula, Hédi. "Dynamique et plasticité dans les réseaux de neurones à impulsions : étude du couplage temporel réseau / agent / environnement." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0056/these.pdf.

Full text
Abstract:
Dans ce travail, une approche de "vie artificielle" est utilisée pour étudier le support neural des comportements. Un comportement est issu d'une bonne adéquation entre le système de contrôle, les capacités sensori-motrices de l'agent et de l'environnement. Dans un paradigme dynamique, un comportement est ainsi un attracteur dans l'espace perception/action - composé de la dynamique interne du contrôleur et de celle obtenue par l'évolution de l'agent. La dynamique neurale est à l'origine de la dynamique interne. L'apprentissage de comportement revient donc à coupler ces deux dynamiques. Nous introduisons, dans un premier temps, une étude détaillée de la dynamique nerveuse dans le cas de réseaux de neurones à impulsions. En mode spontané (c'est-à-dire sans entrées), ces réseaux opèrent de manière non triviale. Selon les paramètres de la distribution de poids synaptiques, nous sommes en mesure d'estimer complètement l'activité de décharge. On montre l'existence d'une bifurcation pour le paramètre de couplage : la variance de la distribution. Nous montrons aussi que ce facteur de couplage mesure le charactère chaotique du fonctionnement du réseau. Pour apprendre des comportement, nous utilisons un algorithme biologiquement plausible la Spike-Time Dependent Plasticity qui permet de coupler la dynamique neurale. Nous montrons en dynamique spontanée l'influence des paramètres d'apprentissage sur le fonctionnement du réseau. Nous montrons que la STDP permet de rester dans un régime "au bord du chaos". Dans le but de valider cette approche, nous utilisons le réseau pour controler un robot qui doit apprendre à éviter les obstacles en servant uniquement du flot visuel
An «artificial life » approach is conducted in order to assess the neural basis of behaviours. Behaviour is the consequence of a good concordance between the controller, the agent’s sensori-motors capabilities and the environment. Within a dynamical system paradigm, behaviours are viewed as attractors in the perception/action space – derived from the composition of the internal and external dynamics. Since internal dynamics is originated by the neural dynamics, learning behaviours therefore consists on coupling external and internal dynamics by modifying network’s free parameters. We begin by introducing a detailed study of the dynamics of large networks of spiking neurons. In spontaneous mode (i. E. Without any input), these networks have a non trivial functioning. According to the parameters of the weight distribution and provided independence hypotheses, we are able to describe completely the spiking activity. Among other results, a bifurcation is predicted according to a coupling factor (the variance of the distribution). We also show the influence of this parameter on the chaotic dynamics of the network. To learn behaviours, we use a biologically plausible learning paradigm – the Spike-Timing Dependent Plasticity (STDP) that allows us to couple neural and external dynamics. Applying shrewdly this learning law enables the network to remain “at the edge of chaos” which corresponds to an interesting state of activity for learning. In order to validate our approach, we use these networks to control an agent whose task is to avoid obstacles using only the visual flow coming from its linear camera. We detail the results of the learning process for both simulated and real robotics platform
APA, Harvard, Vancouver, ISO, and other styles
5

Soula, Hédi Favrel Joel Beslon Guillaume. "Dynamique et plasticité dans les réseaux de neurones à impulsions étude du couplage temporel réseau / agent / environnement /." Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=soula.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Liu, Zongyi. "Self-Adaptive Bandwidth Control for Balanced QoS and Energy Aware Optimization in Wireless Sensor Network." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0034/document.

Full text
Abstract:
Dans le domaine des réseaux de capteurs multimédias sans fil (WMSN), le flux fortement saturé augmente la probabilité de collision et de congestion dans la transmission de données, ce qui dégrade considérablement la performance de la qualité de service (QoS). La technique de déploiement multicanaux est souvent appliquée à la transmission en parallèle pour garantir la QoS. Cependant, comment faire le compromis entre l'exigence QoS et l'efficacité énergétique est un défi pour WMSN énergie-limité. L'analyse théorique de la couche MAC et de la structure de la couche PHY basée sur la norme IEEE 802.15.4, vise à étudier le modèle analytique cross-layer afin de mieux comprendre la relation entre les paramètres du réseau de capteurs et la performance, ouvrant ainsi la voie à de nouvelles améliorations. Recherche d'optimisation multi-canaux. Trouver un indicateur de performance efficace et concevoir une méthode de collecte ou d'estimation de performance efficace basée sur les métriques correspondantes, qui pourraient être utilisées comme entrée de paramètre du mécanisme d'affectation multicanaux. Le système de contrôle dynamique complet est conçu pour une tâche d'attribution multicanal basée sur des techniques d'intelligence de calcul léger et efficace. Nous présentons un mécanisme d'attribution multicouches à bande passante dynamique à fuzzy (MCDB_FLS). La bande passante proactive disponible dans la couche croisée est estimée comme paramètre pour le contrôle d'admission de déploiement multicanal. Une approche axée sur l'apprentissage par renforcement est proposée pour une prise de décision judicieuse dans la mission d'allocation multicanaux. En outre, le modèle de seuil de bande passante basé sur la logique floue fournit une optimisation dynamique sur le contrôle d'admission du système. Les simulations montrent que le MCDB_FLS fonctionne mieux que la référence sur les mesures de QoS et l'efficacité énergétique, réalise le compromis entre l'efficacité énergétique et l'amélioration de la QoS. Enfin, nous introduisons l'intégration de l'approche incrémentielle d'apprentissage automatique dans le mécanisme d'affectation multicanaux avec la Deep Q Network (DQMC). En outre, l'initialisation du poids par action est implémentée sur la base d'un classificateur d'apprentissage supervisé multi-classes avec une approche par empilement. DQMC améliorer la capacité d'auto-adaptatif et de contrôle intelligent pour apprendre le modèle de l'environnement différent de multi-tâches WMSNs
In the Wireless Multimedia Sensor Networks (WMSNs) field, highly saturated flow increases the probability of collision and congestion in data transmission which dramatically degrade the performance of Quality of Service (QoS). Multi-channels deployment technique is often applied to parallel transmission for QoS guarantee. However, how to make trade-off between QoS requirement and energy efficiency is a challenges to energy-constrained WMSNs. Theoretical analysis of MAC layer and PHY layer structure based on IEEE 802.15.4 standard, aim to study on the cross-layer analytical model in order to provide stronger understanding on the relationship between sensor network parameters and performance, pave the way for new enhancements in succedent multi-channel optimization research. Find effective performance indicator and design efficient performance collection or estimation approach based on the corresponding metrics, which could be used as the parameter input of multi-channel assignment mechanism. Comprehensive dynamically control system is designed for multi-channel assignment task based on light weight and high efficient computation intelligence techniques. We present a fuzzy-based dynamic bandwidth multi-channel assignment mechanism (MCDB_FLS). Cross-layer proactive available bandwidth is estimated as parameters for multi-channel deployment admission control. Reinforcement learning-based approach is proposed for more wisely decision-making in multi- channel allocation mission. Furthermore, fuzzy logic-based bandwidth threshold model provides dynamic optimization on system admission control. Simulations show the MCDB_FLS performs better than benchmark on the metrics of QoS and energy efficiency, achieves the trade-off between energy efficiency and QoS improvement. Finally, we introduce the integration of incremental machine learning approach into multi-channel assignment mechanism with Deep Q Network reinforcement learning method (DQMC). Besides, fully action weight initialization is implemented based on multi-class supervised learning classifier with stacking ensemble approach. DQMC improve the ability of self-adaptive and smart control to learn pattern from different environment of multi-tasks WMSNs
APA, Harvard, Vancouver, ISO, and other styles
7

Munos, Rémi. "Apprentissage par renforcement, étude du cas continu." Paris, EHESS, 1997. http://www.theses.fr/1997EHESA021.

Full text
Abstract:
Le probleme aborde est comment concevoir des methodes permettant a des systemes artificiels d' << apprendre par l'experience >>, c'est a dire de resoudre une tache sans etre explicitement programme pour cela, mais seulement a partir du schema d'apprentissage : essais -> erreur ou succes ii s'agit de definir des methodes, sous forme d'algorithmes, permettant la modification des parametres internes du systeme afin de definir des prises de decisions pertinentes. L'approche developpee est celle de << l'apprentissage par renforcement >> qui se definit naturellement sous la forme d'un probleme de controle optimal pour lequel les donnees de la dynamique d'etat sont a priori (au moins partiellement) inconnues du systeme. Cette these est une etude formelle du cas ou l'espace des etats possibles ainsi que le temps auquel les decisions sont prises sont des variable continues ; la preoccupation majeure de ce travail etant l'etude de la convergences des methodes employees. Nous decrivons le formalisme du controle optimal et presentons la methode de la programmation dynamique : definition de la fonction valeur et enonce l'equation de hamiltonjacobi-bellman associee. Nous introduisons les notions desolutions de viscosite et decrivons des methodes d'approximation numeriques a partir de schemas convergents. Puis nous donnons un theoreme de convergence d'algorithmes bases sur les schemas precedents -ce qui represente la contribution majeure de ce travail. Ce theoreme fournit une methode tres generale pour concevoir des algorithmes d'apprentissage par renforcement convergents. Enfin nous illustrons la methode avec divers exemples d'algorithmes varies portant sur des dynamiques d'etat deterministes ou stochastiques, selon des methodes dites directes ou indirectes et a partir de schemas bases sur des methodes aux differences finies ou aux elements finis.
APA, Harvard, Vancouver, ISO, and other styles
8

Nasri, Ridha. "Paramétrage Dynamique et Optimisation Automatique des Réseaux Mobiles 3G et 3G+." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00494190.

Full text
Abstract:
La télécommunication radio mobile connait actuellement une évolution importante en termes de diversité de technologies et de services fournis à l'utilisateur final. Il apparait que cette diversité complexifie les réseaux cellulaires et les opérations d'optimisation manuelle du paramétrage deviennent de plus en plus compliquées et couteuses. Par conséquent, les couts d'exploitation du réseau augmentent corrélativement pour les operateurs. Il est donc essentiel de simplifier et d'automatiser ces taches, ce qui permettra de réduire les moyens consacrés à l'optimisation manuelle des réseaux. De plus, en optimisant ainsi de manière automatique les réseaux mobiles déployés, il sera possible de retarder les opérations de densification du réseau et l'acquisition de nouveaux sites. Le paramétrage automatique et optimal permettra donc aussi d'étaler voire même de réduire les investissements et les couts de maintenance du réseau. Cette thèse introduit de nouvelles méthodes de paramétrage automatique (auto-tuning) des algorithmes RRM (Radio Resource Management) dans les réseaux mobiles 3G et au delà du 3G. L'auto-tuning est un processus utilisant des outils de contrôle comme les contrôleurs de logique floue et d'apprentissage par renforcement. Il ajuste les paramètres des algorithmes RRM afin d'adapter le réseau aux fluctuations du trafic. Le fonctionnement de l'auto-tuning est basé sur une boucle de régulation optimale pilotée par un contrôleur qui est alimenté par les indicateurs de qualité du réseau. Afin de trouver le paramétrage optimal du réseau, le contrôleur maximise une fonction d'utilité, appelée aussi fonction de renforcement. Quatre cas d'études sont décrits dans cette thèse. Dans un premier temps, l'auto-tuning de l'algorithme d'allocation des ressources radio est présenté. Afin de privilégier les utilisateurs du service temps réel (voix), une bande de garde est réservée pour eux. Cependant dans le cas ou le trafic temps réel est faible, il est important d'exploiter cette ressource pour d'autres services. L'auto-tuning permet donc de faire un compromis optimal de la qualité perçue dans chaque service en adaptant les ressources réservées en fonction du trafic de chaque classe du service. Le second cas est l'optimisation automatique et dynamique des paramètres de l'algorithme du soft handover en UMTS. Pour l'auto-tuning du soft handover, un contrôleur est implémenté logiquement au niveau du RNC et règle automatiquement les seuils de handover en fonction de la charge radio de chaque cellule ainsi que de ses voisines. Cette approche permet d'équilibrer la charge radio entre les cellules et ainsi augmenter implicitement la capacité du réseau. Les simulations montrent que l'adaptation des seuils du soft handover en UMTS augmente la capacité de 30% par rapport au paramétrage fixe. L'approche de l'auto-tuning de la mobilité en UMTS est étendue pour les systèmes LTE (3GPP Long Term Evolution) mais dans ce cas l'auto-tuning est fondé sur une fonction d'auto-tuning préconstruite. L'adaptation des marges de handover en LTE permet de lisser les interférences intercellulaires et ainsi augmenter le débit perçu pour chaque utilisateur du réseau. Finalement, un algorithme de mobilité adaptative entre les deux technologies UMTS et WLAN est proposé. L'algorithme est orchestré par deux seuils, le premier est responsable du handover de l'UMTS vers le WLAN et l'autre du handover dans le sens inverse. L'adaptation de ces deux seuils permet une exploitation optimale et conjointe des ressources disponibles dans les deux technologies. Les résultats de simulation d'un réseau multi-systèmes exposent également un gain important en capacité.
APA, Harvard, Vancouver, ISO, and other styles
9

Amadou, Boubacar Habiboulaye. "Classification Dynamique de données non-stationnaires :Apprentissage et Suivi de Classes évolutives." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00106968.

Full text
Abstract:
La plupart des processus naturels ou artificiels ont des comportements évolutifs décrits par des données non-stationnaires. La problématique étudiée dans cette thèse concerne la classification dynamique de données non-stationnaires. Nous proposons une description générique de classifieurs dynamiques conçue à l'aide d'un réseau neuronal à architecture évolutive. Elle est élaborée en quatre procédures d'apprentissage : création, adaptation, fusion, et évaluation. Deux algorithmes sont développés à partir de cette description générique. Le premier est une nouvelle version de l'algorithme AUDyC (AUto-adaptive and Dynamical Clustering). Il utilise un modèle de mélange décrit suivant l'approche multimodale. Le second, nommé SAKM (Self-Adaptive Kernel Machine), est basé sur les SVM et méthodes à noyau. Ces deux algorithmes sont dotés de règles de mise à jour récursives permettant la modélisation adaptative et le suivi de classes évolutives. Ils disposent de capacités d'auto-adaptation en environnement dynamique et de bonnes performances en terme de convergence et de complexité algorithmique. Ces dernières sont prouvées théoriquement et montrées par la simulation des algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
10

Alami, Réda. "Bandits à Mémoire pour la prise de décision en environnement dynamique. Application à l'optimisation des réseaux de télécommunications." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG063.

Full text
Abstract:
Dans cette thèse de doctorat, nous étudions le problème du bandit manchot non stationnaire où le comportement de non-stationnarité de l'environnement est caractérisé par plusieurs changements brusques appelés "points de changement". Nous proposons les bandits à mémoire : une combinaison entre un algorithme pour le bandit manchot stochastique et le détecteur Bayésien de point de changement. L'analyse de ce dernier a toujours été un problème ouvert dans la communauté de la théorie statistique et de l'apprentissage séquentiel. Pour cette raison, nous dérivons une variante du détecteur Bayésien de point de changement qui est plus facile à analyser mathématiquement en termes de taux de fausses alarmes et de délai de détection (qui sont les critères les plus courants pour la détection de point de changement). Ensuite, nous introduisons le problème d'exploration décentralisée dans le cadre du bandit manchot où un ensemble de joueurs collaborent pour identifier le meilleur bras en interagissant de manière asynchrone avec le même environnement stochastique. Nous proposons une première solution générique appelée élimination décentralisée qui utilise n'importe quel algorithme d'identification du meilleur bras comme sous-programme avec la garantie que l'algorithme assure la confidentialité, avec un faible coût de communication. Enfin, nous effectuons une évaluation des stratégies de bandit manchot dans deux contextes différents de réseaux de télécommunications. Tout d'abord, dans le contexte LoRaWAN (Long Range Wide Area Network), nous proposons d'utiliser des algorithmes de bandit manchot à la place de l'algorithme par défaut qui porte le nom d’ADR (Adaptive Data Rate) afin de minimiser la consommation d'énergie et les pertes de paquets des terminaux. Ensuite, dans le contexte IEEE 802.15.4-TSCH, nous effectuons une évaluation de 9 algorithmes de bandits manchot afin de sélectionner ceux qui choisissent les canaux les plus performants, en utilisant les données collectées via la plateforme FIT IoT-LAB. L'évaluation des performances suggère que notre proposition peut améliorer considérablement le taux de livraison des paquets par rapport à la procédure TSCH par défaut, augmentant ainsi la fiabilité et l'efficacité énergétique des transmissions
In this PhD thesis, we study the non-stationary multi-armed bandit problem where the non-stationarity behavior of the environment is characterized by several abrupt changes called "change-points". We propose Memory Bandits: a combination between an algorithm for the stochastic multi-armed bandit and the Bayesian Online Change-Point Detector (BOCPD). The analysis of the latter has always been an open problem in the statistical and sequential learning theory community. For this reason, we derive a variant of the Bayesian Online Change-point detector which is easier to mathematically analyze in term of false alarm rateand detection delay (which are the most common criteria for online change-point detection). Then, we introduce the decentralized exploration problem in the multi-armed bandit paradigm where a set of players collaborate to identify the best arm by asynchronously interacting with the same stochastic environment. We propose a first generic solution called decentralized elimination: which uses any best arm identification algorithm as a subroutine with the guar-antee that the algorithm ensures privacy, with a low communication cost. Finally, we perform an evaluation of the multi-armed bandit strategies in two different context of telecommunication networks. First, in LoRaWAN (Long Range Wide Area Network) context, we propose to use multi-armed bandit algorithms instead of the default algorithm ADR (Adaptive Data Rate) in order to minimize the energy consumption and the packet losses of end-devices. Then, in a IEEE 802.15.4-TSCH context, we perform an evaluation of 9 multi-armed bandit algorithms in order to select the ones that choose high-performance channels, using data collected through the FIT IoT-LAB platform. The performance evaluation suggests that our proposal can significantly improve the packet delivery ratio compared to the default TSCH operation, thereby increasing the reliability and the energy efficiency of the transmissions
APA, Harvard, Vancouver, ISO, and other styles
11

Lurette, Christophe. "Développement d'une technique neuronale auto-adaptative pour la classification dynamique de données évolutives : application à la supervision d'une presse hydraulique." Lille 1, 2003. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/aed48e38-323f-425b-b6ff-c8e75ff5d4b6.

Full text
Abstract:
Le caractère évolutif des procédés industriels rend leur supervision délicate puisque les modes de fonctionnement existants évoluent et que d'autres peuvent apparaitre. L'étude présentée porte sur la conception d'une structure adaptative de supervision permettant la surveillance, la détection et le diagnostic de systèmes évolutifs. La structure proposée est constituée de trois modules: modélisation, surveillance et diagnostic. En raison de l'aspect évolutif de la connaissance sur les modes de fonctionnement, l'accent a été porté sur la définition d'une technique de modélisation dynamique basée sur une approche par reconnaissance de formes. L'architecture neuronale développée, le réseau AUDyC, autorise la classification dynamique de données évolutives via un ensemble de règles d'apprentissage non supervisées permettant son autoadaptation. La première partie introduit les enjeux industriels. La deuxième partie expose des approches d'élaboration d'un système de diagnostic industriel avec en particulier celle par reconnaissance de formes. La troisième partie présente des techniques de classification à apprentissage hors ligne, puis deux techniques neuronales autorisant la prise en compte de données évolutives. La quatrième partie décrit l'architecture évolutive du réseau AUDyC construite selon une approche multiprototype. Les règles d'apprentissage autorisent l'adaptation, la création, la fusion et la suppression de prototypes ou de classes, et sont structurées en trois phases: classification, fusion et évaluation. La cinquième partie expose la structure adaptative de supervision élaborée à partir du réseau AUDyC, puis décrit les performances de celle-ci pour la supervision d'une presse hydraulique.
APA, Harvard, Vancouver, ISO, and other styles
12

Lurette, Christophe Lecœuche Stéphane Vasseur Christian. "Développement d'une technique neuronale auto-adaptative pour la classification dynamique de données évolutives application à la supervision d'une presse hydraulique /." [S.l.] : [s.n.], 2003. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2003-77-78.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Beroule, Dominique. "Un modèle de mémoire adaptative, dynamique et associative pour le traitement automatique de la parole." Paris 11, 1985. http://www.theses.fr/1985PA112317.

Full text
Abstract:
Cette thèse présente les premiers développements d’un modèle de mémoire d’inspiration psychologique destiné notamment à être employé en Traitement Automatique de la Parole. Elle débute par l’exposé des problèmes fondamentaux rencontrés dans le domaine de la compréhension automatique de la parole, et des méthodes algorithmiques adoptées pour tenter d’y remédier. Certains faits et hypothèses de psychologique sont ensuite rapportés, avant la présentation d’un échantillon de modèles connexionnistes, auxquels s’apparente le modèle proposé. La dernière partie de la thèse est consacrée à la description du modèle et de sa simulation informatique, dont le principe de base est de considérer la reconnaissance d’une forme spatio-temporelle comme un phénomène de propagation guidée de signaux à l’intérieur d’un réseau d’unités de décision.
APA, Harvard, Vancouver, ISO, and other styles
14

Salaün, Camille. "Apprentissage De Modèles Pour La Commande De La Mobilité Interne En Robotique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00545534.

Full text
Abstract:
La robotique de service est un domaine émergent où il est nécessaire de commander des robots en interaction forte avec leur environnement. Ce travail présente une méthode adaptative de commande combinant de l'apprentissage de modèles de la mécanique à de la commande dans l'espace opérationnel de robots redondants. L'apprentissage des modèles cinématiques est obtenu soit par dérivation de modèles géométriques appris, soit par apprentissage direct. Ces modèles cinématiques, également appelés matrices Jacobiennes, peuvent être utilisés dans le calcul de pseudo-inverses ou de projecteurs pour la commande de robots. Cette combinaison de méthodes permet d'obtenir un contrôleur qui s'adapte à la géométrie du robot command é. En utilisant les mêmes algorithmes d'apprentissage, il est possible d'apprendre un modèle dynamique inverse du robot contr^olé de manière à le commander en couple plutôt qu'en vitesse, l'avantage étant de pouvoir s'adapter aux modifications dynamiques qui s'appliquent sur le robot comme par exemple l'application d'une force extérieure ou l'ajout d'un poids. Des expériences en simulation menées dans le cadre de cette thèse montrent comment réaliser plusieurs tâches hiérarchiques ou comment s'adapter à des perturbations avec des modèles appris. Des expériences sur le robot iCub ont également été menées afin de rendre compte de la plausibilité de l'approche proposée sur un système réel.
APA, Harvard, Vancouver, ISO, and other styles
15

Gauriau, Olivier. "Fouille de règles numériques pour la prédiction de la dynamique des maladies des plantes." Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/23cd92a0-e9ff-4c23-82f2-6c8af1104dde.

Full text
Abstract:
Cette thèse se concentre sur la prédiction de la dynamique des maladies des plantes et les informations qui peuvent être tirées des modèles obtenus. Pour trouver un compromis entre la performance et la complexité du modèle, on a utilisé des modèles de complexité intermédiaire dits pattern-based. L’objectif était de parvenir à obtenir des modèles de ce type suffisamment performants en se basant sur des données météorologiques (comme les précipitations et l'ensoleillement) et agronomiques. Ces modèles ont été comparés à des modèles couramment utilisés en protection des cultures d’un point de vue du tradeoff entre la complexité et les performances des modèles. Compte tenu du caractère hybride des modèles pattern-based, on a cherché à comparer leurs structures et les informations qu’ils fournissent aux autres modèles. Ceci nous a permis de confirmer que les modèles pattern-based s’approchent des modèles plus complexes (RF, Gradient-Boosting…) tout en restant plus simples à comprendre. Ceci nous permet de supposer que les explications fournies par ces modèles sont pertinentes. Enfin, ces modèles ont été utilisés dans la mise au point d’un outil de visualisation : Cet outil a été mis au point en collaboration avec des experts agronomes d’instituts techniques pour obtenir un résultat adapté à leurs besoins. Cela a permis d’isoler des principes importants pour eux, comme la notion de contraste des informations fournies. L’outil permet de visualiser les facteurs agronomiques et météorologiques les plus impactants sur un ensemble de parcelles défini
This thesis focuses on the prediction of plant disease dynamics and the information that can be derived from the resulting models. To find a compromise between model performance and complexity, pattern-based models of intermediate complexity were used. The aim was to obtain sufficiently efficient models of this type, based on meteorological (such as rainfall and sunshine) and agronomic data. These models were compared with models commonly used in crop protection from the point of view of the tradeoff between model complexity and performance. Given the hybrid nature of pattern-based models, we sought to compare their structures and the information they provide with other models. This enabled us to confirm that pattern-based models come close to more complex models (RF, Gradient-Boosting...) while remaining simpler to understand. This allows us to assume that the explanations provided by these models are relevant. Finally, these models were used in the development of a visualization tool: this tool was developed in collaboration with agronomic experts from technical institutes to obtain a result adapted to their needs. This made it possible to isolate important principles for them, such as the notion of contrast in the information provided. The tool visualizes the agronomic and meteorological factors with the greatest impact on a defined set of plots
APA, Harvard, Vancouver, ISO, and other styles
16

Sochacki, Stéphane. "De la combinaison/compétition de classifieurs vers la sélection dynamique d'opérateurs de traitement d'image." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/7a942260-2262-43e4-b4a4-8873726dde8b.

Full text
Abstract:
L'évolution des technologies a permis le développement du multimédia et des grandes bases de données hétérogènes (textes, images, sons, vidéo, …). Cependant cette évolution a amplifié le besoin de solutions de traitement automatique. Bien que de nombreuses années de recherche aient abouti au développement d'opérateurs de plus en plus performants, leur interopérabilité et parfois même leurs réglages restent à la charge des experts. Cette limite nuit au développement de systèmes pluri-média spécialisés et grand public. Ce travail de recherche se partage en trois parties principales. Gérer de façon automatique une chaîne de traitement d'images allant du prétraitement à la décision, impose de construire un système rétro‐bouclé. Chaque étage nécessite la conception d'informations liées à la qualité ou la précision de l'action effectuée mais aussi d'informations indiquant la pertinence de cette action selon l'objectif visé. Cette première partie s'appuie sur la Théorie de l'Evidence. Une phase intermédiaire de validation sera mise en oeuvre autour des classes d'opérateurs de calcul d'attributs et de classification. Les variabilités intrinsèques aux documents patrimoniaux et par extension aux bases multimédia introduisent la difficulté du choix d'une séquence unique d'opérateurs. Afin de décider dynamiquement de la meilleure chaîne pour le document d'entrée permettant d'atteindre l'objectif visé, le système doit pouvoir mettre en concurrence/compétition les différents opérateurs dans une même classe. Cette deuxième partie exploite les critères de précision/pertinence établis précédemment. Une validation intermédiaire sur la gestion des attributs de caractérisation des primitives graphiques et des classifieurs hiérarchiques sera utilisée. La classification se basant sur un ensemble de données, les attributs, il faut également que la chaîne de traitement manipule des opérateurs comme des analyses de texture ou de forme. Mais pour les intégrer, nous avons besoin d'en connaître la précision par l'utilité et la conservation de l'information. Ce sera la troisième grande étape, au travers de l'étude d'attributs de descripteurs de formes. Le déroulement de ce travail de thèse permettra de développer ces différents points dans le cadre d'une chaîne de traitement complète. Le cadre de travail permettra d'intégrer ces développements dans une application dédiée à l'analyse et la valorisation de documents patrimoniaux. Des éléments intermédiaires de validation seront développés pour quantifier la qualité et la stabilité des solutions proposées. Ce travail de thèse s'inscrit dans la suite de celui de D. Arrivault entre le laboratoire XLIMSIC et la société RC‐Soft, il rentre également dans le cadre des travaux dont le résultat est exploité au sein du programme des Environnements Documentaires Interactifs auxquels ont participé les deux entités
Technology evolutions bring multimedia and huge heterogeneous databases (texts, images, sounds, video etc. ) development. Nevertheless, this evolution amplified the need of automatic processing solutions. Whereas many years of research resulted in more and more powerful operators development, their interoperability and sometimes their tuning remain supported by the expert. This limit harms the specialized multi‐media and consumer systems development. This research work is divided in three main parts. The automatic processing chain management, from preprocessing to decision, leads a reverse looped system to be build. Each stage needs the conception of information relative to the quality or the accuracy of the done action, and information indicating the relevance of this action according to the desired goal as well. This first part is based on the Theory of Evidence. An intermediate validation phase will be achieved on classes of attributes computing and classification operators. Patrimonial documents, and by extension multimedia databases, intrinsic variability introduce the choice trouble of a unique operators sequence. In order to dynamically decide the best chain for the input document, allowing to reach the desired goal, the system would have to put in competition the different operators from a same class. This second part exploits accuracy/relevance previously proposed. An intermediate validation about graphical primitives description attributes and hierarchical classifiers management will be used. As classification is based on a set of data, the attributes, the processing chain will have to manipulate operators like texture or shape analysis. But for their integration, we need to know the accuracy by usefulness and information preservation. This will be the third main step, via a shape descriptors attributes study. The progress of this thesis work will help to develop this different points within a complete processing chain. All those development will be integrated in an application dedicated to the analysis and valorization of patrimonial documents. Intermediate validation elements will be developed to evaluate the quality and the stability of all proposed solutions. This thesis work comes next to D. Arrivault's between the XLIM‐SIC laboratory and the RC‐Soft company and comes within works which results are exploited in the Interactive Documentary Environments to which the two entities participated
APA, Harvard, Vancouver, ISO, and other styles
17

Novello, Paul. "Combining supervised deep learning and scientific computing : some contributions and application to computational fluid dynamics." Thesis, Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAX005.

Full text
Abstract:
Cette thèse s’inscrit dans le domaine émergent de l’apprentissage automatique scientifique, qui étudie l’application de l’apprentissage automatique au calcul scientifique. Plus précisément, nous nous intéressons à l’utilisation de l’apprentissage profond pour accélérer des simulations numériques.Pour atteindre cet objectif, nous nous concentrons sur l’approximation de certaines parties des logiciels de simulation basés sur des Equations Différentielles Partielles (EDP) par un réseau de neurones. La méthodologie proposée s'appuie sur la construction d’un ensemble de données, la sélection et l'entraînement d’un réseau de neurones et son intégration dans le logiciel original, donnant lieu à une simulation numérique hybride. Malgré la simplicité apparente de cette approche, le contexte des simulations numériques implique des difficultés spécifiques. Puisque nous visons à accélérer des simulations, le premier enjeu est de trouver un compromis entre la précision des réseaux de neurones et leur temps d’exécution. En effet, l’amélioration de la première implique souvent la dégradation du second. L’absence de garantie mathématique sur le contrôle de la précision numérique souhaitée inhérent à la conception du réseau de neurones par apprentissage statistique constitue le second enjeu. Ainsi nous souhaiterions maitriser la fiabilité des prédictions issues de notre logiciel de simulation hybride. Afin de satisfaire ces enjeux, nous étudions en détail chaque étape de la méthodologie d’apprentissage profond. Ce faisant, nous mettons en évidence certaines similitudes entre l'apprentissage automatique et la simulation numérique, nous permettant de présenter des contributions ayant un impact sur chacun de ces domaines.Nous identifions les principales étapes de la méthodologie d’apprentissage profond comme étant la constitution d’un ensemble de données d’entraînement, le choix des hyperparamètres d’un réseau de neurones et son entraînement. Pour la première étape, nous tirons parti de la possibilité d’échantillonner les données d’entraînement à l'aide du logiciel de simulation initial pour caractériser une distribution d’entraînement plus efficace basée sur la variation locale de la fonction à approcher. Nous généralisons cette observation pour permettre son application à des problèmes variés d’apprentissage automatique en construisant une méthodologie de pondération des données appelée ”Variance Based Sample Weighting”. Dans un deuxième temps, nous proposons l’usage de l’analyse de sensibilité, une approche largement utilisée en calcul scientifique, pour l’optimisation des hyperparamètres des réseaux de neurones. Cette approche repose sur l’évaluation qualitative de l’effet des hyperparamètres sur les performances d’un réseau de neurones à l'aide du critère d'indépendance de Hilbert-Schmidt. Les adaptations au contexte de l’optimisation des hyperparamètres conduisent à une méthodologie interprétable permettant de construire des réseaux de neurones à la fois performants et précis. Pour la troisième étape, nous définissons formellement une analogie entre la résolution stochastique d’EDPs et le processus d’optimisation en jeu lors de l'entrainement d’un réseau de neurones. Cette analogie permet d’obtenir un cadre pour l’entraînement des réseaux de neurones basé sur la théorie des EDPs, qui ouvre de nombreuses possibilités d’améliorations pour les algorithmes d’optimisation existants. Enfin, nous appliquons ces méthodologies à une simulation numérique de dynamique des fluides couplée à un code d’équilibre chimique multi-espèces. Celles-ci nous permettent d’atteindre une accélération d’un facteur 21 avec une dégradation de la précision contrôlée ou nulle par rapport à la p rédiction initiale
Recent innovations in mathematics, computer science, and engineering have enabled more and more sophisticated numerical simulations. However, some simulations remain computationally unaffordable, even for the most powerful supercomputers. Lately, machine learning has proven its ability to improve the state-of-the-art in many fields, notoriously computer vision, language understanding, or robotics. This thesis settles in the high-stakes emerging field of Scientific Machine Learning which studies the application of machine learning to scientific computing. More specifically, we consider the use of deep learning to accelerate numerical simulations.We focus on approximating some components of Partial Differential Equation (PDE) based simulation software by a neural network. This idea boils down to constructing a data set, selecting and training a neural network, and embedding it into the original code, resulting in a hybrid numerical simulation. Although this approach may seem trivial at first glance, the context of numerical simulations comes with several challenges. Since we aim at accelerating codes, the first challenge is to find a trade-off between neural networks’ accuracy and execution time. The second challenge stems from the data-driven process of the training, and more specifically, its lack of mathematical guarantees. Hence, we have to ensure that the hybrid simulation software still yields reliable predictions. To tackle these challenges, we thoroughly study each step of the deep learning methodology while considering the aforementioned constraints. By doing so, we emphasize interplays between numerical simulations and machine learning that can benefit each of these fields.We identify the main steps of the deep learning methodology as the construction of the training data set, the choice of the hyperparameters of the neural network, and its training. For the first step, we leverage the ability to sample training data with the original software to characterize a more efficient training distribution based on the local variation of the function to approximate. We generalize this approach to general machine learning problems by deriving a data weighting methodology called Variance Based Sample Weighting. For the second step, we introduce the use of sensitivity analysis, an approach widely used in scientific computing, to tackle neural network hyperparameter optimization. This approach is based on qualitatively assessing the effect of hyperparameters on the performances of a neural network using Hilbert-Schmidt Independence Criterion. We adapt it to the hyperparameter optimization context and build an interpretable methodology that yields competitive and cost-effective networks. For the third step, we formally define an analogy between the stochastic resolution of PDEs and the optimization process at play when training a neural network. This analogy leads to a PDE-based framework for training neural networks that opens up many possibilities for improving existing optimization algorithms. Finally, we apply these contributions to a computational fluid dynamics simulation coupled with a multi-species chemical equilibrium code. We demonstrate that we can achieve a time factor acceleration of 21 with controlled to no degradation from the initial prediction
APA, Harvard, Vancouver, ISO, and other styles
18

Hadjerci, Oussama. "Détection automatique du nerf dans les images échographiques." Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2006/document.

Full text
Abstract:
L’anesthésie loco-régionale présente une alternative intéressante à l’anesthésie générale dans de nombreuses interventions chirurgicales. L’atout majeur de cette technique est qu’elle réduit grandement les scores de douleurs et améliore par la même la mobilité post-opératoire. L’anesthésie locorégionale écho-guidée (UGRA) devient aujourd’hui, la méthode de référence dans le domaine de l’anesthésie, offrant de nombreux avantages par rapport aux autres méthodes comme la neurostimulation. Cependant, cette technique nécessite en contrepartie un apprentissage spécifique afin d’éviter des complications sévères liées à une erreur de localisation visuelle du nerf dans les images échographiques. L’objectif de cette thèse est de faciliter et de sécuriser la pratique de l’anesthésie loco-régionale écho-guidée. Dans un premier temps, nous avons proposé une méthode de détection du nerf mettant en oeuvre un algorithme qui suite à un prétraitement à partir de filtres fréquentielles, réalise une analyse de texture par apprentissage. Dans ce cadre, deux nouvelles approches ont été explorées : l’une concerne la caractérisation du nerf qui s’appuie sur la prise en compte du bruit présent dans une image ultrasonore, bruit ayant été au préalable atténué partiellement. L’autre propose une technique de sélection des caractéristiques mettant en avant celles qui sont les moins redondantes et les plus pertinentes. Dans un second temps, après étude fine du comportement variable de la morphologie du nerf tout au long d’une séquence d’images ultrasonores, nous avons développé un modèle dynamique ayant comme paramètres des informations en lien avec la cohérence temporelle de la position, de la forme et la confiance de classification des ROI potentielles afin de générer une segmentation robuste. Il est proposé également dans cette partie, un nouveau modèle de forme prenant en compte un ensemble d’intervalles de points de repères du contour, permettant ainsi de s’adapter aux variations de la forme du nerf dans le temps
Regional anesthesia presents an interesting alternative or complementary act to general anesthesia in many surgical procedures. It reduces pain scores, improves postoperative mobility and facilitates earlier hospital discharge. Ultrasound-Guided Regional Anesthesia (UGRA) has been gaining importance in the last few years, offering numerous advantages over alternative methods of nerve localization (neurostimulation or paraesthesia). However, nerve detection is one of the most difficult tasks that anesthetists can encounter in the UGRA procedure. The context of the present work is to provide practitioners with a method to facilitate and secure the practice of UGRA. However, automatic detection and segmentation in ultrasound images is still a challenging problem in many medical applications. This work addresses two main issues. The first one, we propose an algorithm for nerve detection and segmentation in ultrasound images, this method is composed of a pre-processing, texture analysis and machine learning steps. In this part of work, we explore two new approaches ; one to characterize the nerve and the second for selecting the minimum redundant and maximum relevant features. The second one, we studied the nerve detection in consecutive ultrasound frames. We have demonstrated that the development of an algorithm based on the temporal coherence of the position, the shape and the confidence measure of the classification, allows to generate a robust segmentation. In this work, we also propose a new model of shape based on a set of intervals landmarks able to adapt to the nerve shape under a morphological variations
APA, Harvard, Vancouver, ISO, and other styles
19

Ramdane, Saïd. "Identification automatique de types de formulaires par des méthodes stochastiques markoviennes." Le Havre, 2002. http://www.theses.fr/2002LEHA0018.

Full text
Abstract:
L'identification de formulaires est une opération importante de la chaîne de traitement d'un système de lecture automatique. Aucun signe distinctif n'est supposé marquer le formulaire. Le traitement commence par l'extraction des blocs rectangulaires de textes ou de rectangles englobant les dessins ou les images. Etant donné que les formulaires comprennent des champs manuscrits, la position, les dimensions des blocs rectangulaires présents sont variables. Les phénomènes de fusionnement et de fragmentation résultant de la segmentation induisent une variabilité supplémentaire dans le nombre des rectangles. Cette double variabilité des rectangles, présentent un caractère aléatoire. Une première méthode, de nature statistique, effectue la reconnaissance par le calcul d'une distance, qui généralise celle de Mahalanobis, entre la forme inconnue et un modèle déterminé par appariement dans chaque classe. L'apprentissage nécessite la délicate prise en compte du phénomène de fusionnement/fragmentation. Ce modèle statistique se révèle être en réalité un modèle stochastique markovien d'ordre 0. Une deuxième méthode, de nature stochastique, repose sur la construction de modèles de Markov cachés planaires (PHMM : Pseudo-2D Hidden Markov Model). Nous décrivons notamment un nouvel apprentissage non supervisé du nombre d'états par une méthode d'agrégation dynamique. La reconnaissance est basée sur l'estimation de la probabilité conditionnelle calculée par une extension de l'algorithme de Viterbi doublement imbriqué. Pour les deux méthodes, nous avons cherché à rendre automatiques toutes les phases de l'apprentissage et de la reconnaissance. Les résultats expérimentaux confirment la validité des deux méthodes
Identification of forms is a significant operation of an automatic system of reading. No distinctive sign is supposed to mark the form. The treatment starts with the extraction of the rectangular blocks of texts or rectangles including the drawings or the images. Since the forms include handwritten fields, the position, dimensions of the rectangular blocks present are variable. The phenomena of merging and fragmentation resulting from the segmentation induce an additional variability in the number of the rectangles. This double variability of the rectangles is naturally random. A first statistical method carries out the recognition by the calculation of a distance, which generalizes the Mahalanobis distance. Learning requires taking care of the phenomenon of merging/fragmentation. This statistical model appears to be actually a Markovian stochastic model of order 0. A second stochastic method rests on the construction of planar hidden Markov models (PHMM: Pseudo-2D Hidden Markov Model). We describe in particular a new unsupervised training of the states number by a dynamic aggregation method. The recognition is based on the estimation of the conditional probability calculated by an extension of a doubly imbricated Viterbi algorithm. For the two methods, we sought to make automatic all the phases of the training and the recognition. The experimental results confirm the validity of the two methods
APA, Harvard, Vancouver, ISO, and other styles
20

Ngo, Ha Nhi. "Apprentissage continu et prédiction coopérative basés sur les systèmes de multi-agents adaptatifs appliqués à la prévision de la dynamique du trafic." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES043.

Full text
Abstract:
Le développement rapide des technologies matérielles, logicielles et de communication des systèmes de transport ont apporté des opportunités prometteuses et aussi des défis importants pour la société humaine. Parallèlement à l'amélioration de la qualité des transports, l'augmentation du nombre de véhicules a entraîné de fréquents embouteillages, en particulier dans les grandes villes aux heures de pointe. Les embouteillages ont de nombreuses conséquences sur le coût économique, l'environnement, la santé mentale des conducteurs et la sécurité routière. Il est donc important de prévoir la dynamique du trafic et d'anticiper l'apparition des embouteillages, afin de prévenir et d'atténuer les situations de trafic perturbées, ainsi que les collisions dangereuses à la fin de la queue d'un embouteillage. De nos jours, les technologies innovatives des systèmes de transport intelligents ont apporté des ensembles de données diverses et à grande échelle sur le trafic qui sont continuellement collectées et transférées entre les dispositifs sous forme de flux de données en temps réel. Par conséquent, de nombreux services de systèmes de transport intelligents ont été développés basé sur l'analyse de données massives, y compris la prévision du trafic. Cependant, le trafic contient de nombreux facteurs variés et imprévisibles qui rendent la modélisation, l'analyse et l'apprentissage de l'évolution historique du trafic difficiles. Le système que nous proposons vise donc à remplir les cinq composantes suivantes d'un système de prévision du trafic : textbf{analyse temporelle, analyse spatiale, interprétabilité, analyse de flux et adaptabilité à plusieurs échelles de données} pour capturer les patterns historiques de trafic à partir des flux de données, fournir une explication explicite de la causalité entrée-sortie et permettre différentes applications avec divers scénarios. Pour atteindre les objectifs mentionnés, nous proposons un modèle d'agent basé sur le clustering dynamique et la théorie des systèmes multi-agents adaptatifs afin de fournir des mécanismes d'apprentissage continu et de prédiction coopérative. Le modèle d'agent proposé comprend deux processus interdépendants fonctionnant en parallèle : textbf{apprentissage local continu} et textbf{prédiction coopérative}. Le processus d'apprentissage vise à détecter, au niveau de l'agent, différents états représentatifs à partir des flux de données reçus. Basé sur le clustering dynamique, ce processus permet la mise à jour continue de la base de données d'apprentissage en s'adaptant aux nouvelles données. Simultanément, le processus de prédiction exploite la base de données apprise, dans le but d'estimer les futurs états potentiels pouvant être observés. Ce processus prend en compte l'analyse de la dépendance spatiale en intégrant la coopération entre les agents et leur voisinage. Les interactions entre les agents sont conçues sur la base de la théorie AMAS avec un ensemble de mécanismes d'auto-adaptation comprenant textbf{l'auto-organisation}, textbf{l'autocorrection} et textbf{l'auto-évolution}, permettant au système d'éviter les perturbations, de gérer la qualité de la prédiction et de prendre en compte les nouvelles informations apprises dans le calcul de la prédiction. Les expériences menées dans le contexte de la prévision de la dynamique du trafic évaluent le système sur des ensembles de données générées et réelles à différentes échelles et dans différents scénarios. Les résultats obtenus ont montré la meilleure performance de notre proposition par rapport aux méthodes existantes lorsque les données de trafic expriment de fortes variations. En outre, les mêmes conclusions retirées de différents cas d'étude renforcent la capacité du système à s'adapter à des applications multi-échelles
Le développement rapide des technologies matérielles, logicielles et de communication des systèmes de transport ont apporté des opportunités prometteuses et aussi des défis importants pour la société humaine. Parallèlement à l'amélioration de la qualité des transports, l'augmentation du nombre de véhicules a entraîné de fréquents embouteillages, en particulier dans les grandes villes aux heures de pointe. Les embouteillages ont de nombreuses conséquences sur le coût économique, l'environnement, la santé mentale des conducteurs et la sécurité routière. Il est donc important de prévoir la dynamique du trafic et d'anticiper l'apparition des embouteillages, afin de prévenir et d'atténuer les situations de trafic perturbées, ainsi que les collisions dangereuses à la fin de la queue d'un embouteillage. De nos jours, les technologies innovatives des systèmes de transport intelligents ont apporté des ensembles de données diverses et à grande échelle sur le trafic qui sont continuellement collectées et transférées entre les dispositifs sous forme de flux de données en temps réel. Par conséquent, de nombreux services de systèmes de transport intelligents ont été développés basé sur l'analyse de données massives, y compris la prévision du trafic. Cependant, le trafic contient de nombreux facteurs variés et imprévisibles qui rendent la modélisation, l'analyse et l'apprentissage de l'évolution historique du trafic difficiles. Le système que nous proposons vise donc à remplir les cinq composantes suivantes d'un système de prévision du trafic : textbf{analyse temporelle, analyse spatiale, interprétabilité, analyse de flux et adaptabilité à plusieurs échelles de données} pour capturer les patterns historiques de trafic à partir des flux de données, fournir une explication explicite de la causalité entrée-sortie et permettre différentes applications avec divers scénarios. Pour atteindre les objectifs mentionnés, nous proposons un modèle d'agent basé sur le clustering dynamique et la théorie des systèmes multi-agents adaptatifs afin de fournir des mécanismes d'apprentissage continu et de prédiction coopérative. Le modèle d'agent proposé comprend deux processus interdépendants fonctionnant en parallèle : textbf{apprentissage local continu} et textbf{prédiction coopérative}. Le processus d'apprentissage vise à détecter, au niveau de l'agent, différents états représentatifs à partir des flux de données reçus. Basé sur le clustering dynamique, ce processus permet la mise à jour continue de la base de données d'apprentissage en s'adaptant aux nouvelles données. Simultanément, le processus de prédiction exploite la base de données apprise, dans le but d'estimer les futurs états potentiels pouvant être observés. Ce processus prend en compte l'analyse de la dépendance spatiale en intégrant la coopération entre les agents et leur voisinage. Les interactions entre les agents sont conçues sur la base de la théorie AMAS avec un ensemble de mécanismes d'auto-adaptation comprenant textbf{l'auto-organisation}, textbf{l'autocorrection} et textbf{l'auto-évolution}, permettant au système d'éviter les perturbations, de gérer la qualité de la prédiction et de prendre en compte les nouvelles informations apprises dans le calcul de la prédiction. Les expériences menées dans le contexte de la prévision de la dynamique du trafic évaluent le système sur des ensembles de données générées et réelles à différentes échelles et dans différents scénarios. Les résultats obtenus ont montré la meilleure performance de notre proposition par rapport aux méthodes existantes lorsque les données de trafic expriment de fortes variations. En outre, les mêmes conclusions retirées de différents cas d'étude renforcent la capacité du système à s'adapter à des applications multi-échelles
APA, Harvard, Vancouver, ISO, and other styles
21

Reis, Ana Flávia dos. "New Baseband Architectures Using Machine Learning and Deep Learning in the Presence of Nonlinearities and Dynamic Environment." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS023.

Full text
Abstract:
La futur sixième génération (6G) de systèmes de communication sans fil devrait permettre un large éventail de nouvelles applications dans le domaine de la communication véhiculaire, ce qui s'accompagne d'un ensemble varié de défis et d'opportunités résultant des exigences de cette technologie de pointe. En particulier, ces défis découlent des conditions dynamiques des canaux, y compris les canaux variables dans le temps et les non-linéarités induites par les amplificateurs de puissance. Dans ce contexte complexe, l'estimation des canaux sans fil apparaît comme un élément essentiel pour établir une communication fiable. En outre, le potentiel de l'apprentissage automatique et de l'apprentissage profond dans la conception d'architectures de récepteurs adaptées aux réseaux de communication véhiculaires est évident, étant donné leurs capacités à exploiter de vastes ensembles de données, à modéliser des conditions de canal complexes et à optimiser la performance des récepteurs. Au long de cette recherche, nous avons tiré parti de ces outils potentiels pour faire progresser l'état de l'art en matière de conception de récepteurs pour les réseaux de communication véhiculaires. Ainsi, nous avons exploré les caractéristiques de l'estimation des canaux sans fil et de l'atténuation des distorsions non linéaires, en reconnaissant qu'il s'agit de facteurs importants pour la performance des systèmes de communication. À cette fin, nous proposons de nouvelles méthodes et des récepteurs flexibles, basés sur des approches hybrides qui combinent des modèles mathématiques et des techniques de l'apprentissage automatique, en tirant parti des caractéristiques uniques du canal véhiculaire pour promouvoir une estimation précise. Notre analyse couvre à la fois la forme d'onde des communications sans fil conventionnelles et une forme d'onde prometteuse de la 6G, ce qui démontre la complétude de notre approche. Les résultats des approches proposées sont prometteurs, caractérisés par des améliorations substantielles de la performance et des réductions notables de la complexité du système. Ces résultats offrent un potentiel pour des applications dans le monde réel, marquant un pas vers l'avenir dans le domaine des réseaux de communication véhiculaires
The forthcoming sixth generation (6G) of wireless communication systems is expected to enable a wide range of new applications in vehicular communication, which is accompanied by a diverse set of challenges and opportunities resulting from the demands of this cutting-edge technology. In particular, these challenges arise from dynamic channel conditions, including time-varying channels and nonlinearities induced by high-power amplifiers. In this complex context, wireless channel estimation emerges as an essential element in establishing reliable communication. Furthermore, the potential of machine learning and deep learning in the design of receiver architectures adapted to vehicular communication networks is evident, given their capabilities to harness vast datasets, model complex channel conditions, and optimize receiver performance. Throughout the course of this research, we leveraged these potential tools to advance the state-of-the-art in receiver design for vehicular communication networks. In this manner, we delved into the characteristics of wireless channel estimation and the mitigation of nonlinear distortions, recognizing these as significant factors in the communication system performance. To this end, we propose new methods and flexible receivers, based on hybrid approaches that combine mathematical models and machine learning techniques, taking advantage of the unique characteristics of the vehicular channel to favor accurate estimation. Our analysis covers both conventional wireless communications waveform and a promising 6G waveform, targeting the comprehensiveness of our approach. The results of the proposed approaches are promising, characterized by substantial enhancements in performance and noteworthy reductions in system complexity. These findings hold the potential for real-world applications, marking a step toward the future in the domain of vehicular communication networks
APA, Harvard, Vancouver, ISO, and other styles
22

Chalabi, Asma. "Processus d'analyse dynamique pour l'imagerie de cellules vivantes permettant la détection des réponses cellulaires aux anticancéreux, par traitement de l'image et du signal et apprentissage automatique profond." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ6004.

Full text
Abstract:
La division et la mort cellulaires sont les principaux indicateurs permettant d'évaluer l'action des thérapies ciblées dans le cancer, et seules leurs mesures précises peuvent révéler l'efficacité réelles d'un traitement. La détection des événements de division et de mort cellulaires dans les essais sur cellules vivantes a le potentiel de produire des mesures robustes de la pharmacodynamique des anticancéreux et de permettre une compréhension plus complète des réponses de cellules tumorales aux combinaisons thérapeutiques. Connaître précisément le moment de la mort ou de la division cellulaire dans une expérience sur cellules vivantes permet d'étudier la contribution relative des différents effets des médicaments, tels que les effets cytotoxiques ou cytostatiques, sur une population de cellules. Cependant, les méthodes classiques nécessitent des colorants pour mesurer la viabilité cellulaire avec des comptages de populations à un temps final, où les taux de prolifération ne peuvent être estimés que lorsque les cellules viables et mortes sont marquées simultanément.L'imagerie de cellules vivantes est une technique prometteuse pour déterminer l'efficacité des médicaments, la principale limitation étant la précision et la profondeur des analyses pour extraire automatiquement des mesures de description de phénotypes de réponse cellulaire (mort et division cellulaires, qui partagent certaines caractéristiques morphologiques).Cette thèse propose une méthode intégrant de l'apprentissage automatique profond par réseau de neurones et du traitement de l'image et du signal afin d'effectuer des analyses de réponses cellulaires en utilisant l'imagerie dynamique de cellules uniques dans des expériences de profilage pharmacologique d'anticancéreux. Cette méthode procède par suivi automatique des cellules, extraction de caractéristiques cellulaires radiométriques et morphologiques, et analyse de l'évolution de ces caractéristiques au cours du temps pour chaque cellule afin de détecter des événements tels que la division et la mort cellulaire ainsi que d'enregistrer des dynamiques de signalisation cellulaire.Un cas d'étude comprenant l'analyse des dynamiques en cellules uniques de l'activité caspase-8 et de différentes caractéristiques cellulaires impactées par le traitement anticancéreux est présenté. L'objectif est de réaliser automatiquement et à grande échelle les analyses nécessaires pour faire évoluer la méthode de prédiction des phénotypes cellulaires (Fateseq) disponible dans le laboratoire, et de l'appliquer à diverses lignées cellulaires cancéreuses d'un panel de lignées cellulaires cancéreuses humaines afin d'améliorer les approches de profilage OMICS sur cellules vivantes et, à plus long terme, d'intensifier le criblage pharmacologique de nouveaux médicaments anticancéreux
Cell division and cell death are the main indicators to evaluate cancer drug action, and only their accurate measures can reveal the actual potency and efficacy of a compound. The detection of cell division and cell death events in live-cell assays has the potential to produce robust metrics of drug pharmacodynamics and return a more comprehensive understanding of tumor cells responses to cancer therapeutic combinations. Knowing precisely when a cell death or a cell division occurs in a live-cell experiment allows to study the relative contribution of different drug effects -such as cytotoxic or cytostatic effects, on a cell population. Yet, classical methods require dyes to measure cell viability as an end-point assay with whole population counts, where the proliferation rates can only be estimated when both viable and dead cells are labeled simultaneously.Live-cell imaging is a promising cell-based assay to determine drug efficacies, with the main limitation being the accuracy and depth of the analyses to detect and predict automatically cellular response phenotypes (cell death and division, which share some morphological features).This thesis introduces a method integrating deep learning using neural networks, and image and signal processing to perform dynamic image analyses of single-cell events in time-lapse microscopy experiments of drug pharmacological profiling. This method works by automatically tracking the cells, extracting radiometric and morphologic cell features, and analyzing the temporal evolution of these features for each cell so as to detect cellular events such as division and cell death, as well as acquiring signaling pathway dynamics.A case of study comprising the analyses of caspase-8 single-cell dynamics and other cell responses to cancer drugs is presented. The aim is to achieve automatically, at a large scale the necessary analyses to augment the phenotype prediction method available in the lab (Fateseq) and to apply it to various cancer cell lines of a human cancer cell line panel to improve our live-cell OMICS profiling approaches, and, in a longer term, to scale up pharmacological screening of new cancer drugs
APA, Harvard, Vancouver, ISO, and other styles
23

Infantes, Guillaume. "Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129505.

Full text
Abstract:
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
APA, Harvard, Vancouver, ISO, and other styles
24

Bayoudh, Meriam. "Apprentissage de connaissances structurelles à partir d’images satellitaires et de données exogènes pour la cartographie dynamique de l’environnement amazonien." Thesis, Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0671/document.

Full text
Abstract:
Les méthodes classiques d'analyse d'images satellites sont inadaptées au volume actuel du flux de données. L'automatisation de l'interprétation de ces images devient donc cruciale pour l'analyse et la gestion des phénomènes observables par satellite et évoluant dans le temps et l'espace. Ce travail vise à automatiser la cartographie dynamique de l'occupation du sol à partir d'images satellites, par des mécanismes expressifs, facilement interprétables en prenant en compte les aspects structurels de l'information géographique. Il s'inscrit dans le cadre de l'analyse d'images basée objet. Ainsi, un paramétrage supervisé d'un algorithme de segmentation d'images est proposé. Dans un deuxième temps, une méthode de classification supervisée d'objets géographiques est présentée combinant apprentissage automatique par programmation logique inductive et classement par l'approche multi-class rule set intersection. Ces approches sont appliquées à la cartographie de la bande côtière Guyanaise. Les résultats démontrent la faisabilité du paramétrage de la segmentation, mais également sa variabilité en fonction des classes de la carte de référence et des données d'entrée. Les résultats de la classification supervisée montrent qu'il est possible d'induire des règles de classification expressives, véhiculant des informations cohérentes et structurelles dans un contexte applicatif donnée et conduisant à des valeurs satisfaisantes de précision et de KAPPA (respectivement 84,6% et 0,7). Ce travail de thèse contribue ainsi à l'automatisation de la cartographie dynamique à partir d'images de télédétection et propose des perspectives originales et prometteuses
Classical methods for satellite image analysis are inadequate for the current bulky data flow. Thus, automate the interpretation of such images becomes crucial for the analysis and management of phenomena changing in time and space, observable by satellite. Thus, this work aims at automating land cover cartography from satellite images, by expressive and easily interpretable mechanism, and by explicitly taking into account structural aspects of geographic information. It is part of the object-based image analysis framework, and assumes that it is possible to extract useful contextual knowledge from maps. Thus, a supervised parameterization methods of a segmentation algorithm is proposed. Secondly, a supervised classification of geographical objects is presented. It combines machine learning by inductive logic programming and the multi-class rule set intersection approach. These approaches are applied to the French Guiana coastline cartography. The results demonstrate the feasibility of the segmentation parameterization, but also its variability as a function of the reference map classes and of the input data. Yet, methodological developments allow to consider an operational implementation of such an approach. The results of the object supervised classification show that it is possible to induce expressive classification rules that convey consistent and structural information in a given application context and lead to reliable predictions, with overall accuracy and Kappa values equal to, respectively, 84,6% and 0,7. In conclusion, this work contributes to the automation of the dynamic cartography from remotely sensed images and proposes original and promising perpectives
APA, Harvard, Vancouver, ISO, and other styles
25

Seroussi, Brigitte. "Alex : resolution de problemes par analogie basee sur un apprentissage de strategies par la construction dynamique d'une memoire indexee des exemples." Paris 7, 1988. http://www.theses.fr/1988PA077153.

Full text
Abstract:
Alex est un systeme d'apprentissage de strategies de resolution de problemes qui procede par construction d'une memoire structuree des exemples ce qui permet d'eviter les difficultes dues au manque de structuration des connaissances representees. Alex est actuellement implemente en common lisp et applique a l'apprentissage du calcul de limites de suites
APA, Harvard, Vancouver, ISO, and other styles
26

Mabed, Mehdi. "Application de méthodes d'apprentissage profond à l'analyse et modélisation de la dynamique non-linéaire dans les fibres optiques." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD021.

Full text
Abstract:
La propagation d'impulsions lumineuses non-linéaires dans les fibres optiques présente un large éventail de dynamiques complexes. En fonction des conditions initiales et des propriétés des fibres utilisées, il est possible d'observer des dynamiques solitoniques complexes pouvant engendrer un élargissement spectral prononcé, allant jusqu'à la génération de supercontinuum. La complexité de ces effets peut rendre leur analyse et leur modélisation difficiles, et l'objectif de cette thèse a été de montrer l'application de techniques d'apprentissage machine pour analyser différents scénarios de propagation d'impulsions non-linéaires dans des systèmes optiques fibrés régis par l'équation de Schrödinger non-linéaire. En particulier, la prédiction des propriétés temporelles des "vagues scélérates" optiques en se basant uniquement sur l'analyse de l'intensité spectrale, sans aucune information sur la phase, a été accomplie à l'aide d'un réseau de neurones à propagation avant. Ces prédictions se sont avérées très satisfaisantes en régime d'instabilité de modulation pure ainsi que dans un système de cavité laser extit{noise-like pulse} en régime de bande spectrale étroite et large. Enfin, l'algorithme de réseau de neurones à propagation avant s'est avéré remarquablement précis dans sa capacité de reconstruction de la dynamique de l'équation de Schrödinger non-linéaire
Nonlinear pulse propagation in optical fibers exhibits a wide range of complex dynamics. Depending on the initial conditions and parametres of the fiber used, it is possible to observe a range of instability and solitonic dynamics leading to pronounced spectral broadening, and even supercontinuum generation. The complexity of these effects can make their analysis and modeling difficult, and the aim of this thesis has been to demonstrate the application of machine learning techniques to analyse different scenarios of nonlinear pulse propagation governed by the nonlinear Schrödinger equation. In particular, the prediction of the temporal properties of optical "rogue waves" based solely on spectral intensity analysis, without any phase information, was accomplished using a feedforward neural network. These predictions proved highly satisfactory in systems of pure modulation instability, as well as noise-like pulse laser operation in narrow- and wide-band spectral regimes. Finally, the feedforward neural network algorithm also proved remarkably accurate in reconstructing the dynamics of the nonlinear Schrödinger equation
APA, Harvard, Vancouver, ISO, and other styles
27

Benazzouz, Yazid. "Découverte de contexte pour une adaptation automatique de services en intelligence ambiante." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00733013.

Full text
Abstract:
Cette thèse s'intéresse à la problématique de l'adaptation automatique de services dans ledomaine de l'intelligence ambiante. L'étude de la littérature montre que la sensibilité aucontexte est devenue un élément central pour la conception et la mise en place de servicesadaptatifs. Cependant, sa prise en compte se limite généralement à des descriptionsélémentaires de situations ou à des modèles prédéfinis. Afin de permettre une adaptation auxchangements d'habitudes des utilisateurs, à la dynamique de l'environnement et àl'hétérogénéité des sources de perception, nous proposons des mécanismes de découverte decontexte et de situations déclencheurs d'adaptation. Ces mécanismes s'appuient sur destechniques de fouille de données et sont intégrés au sein d'une architecture d'adaptationautomatique de services. Ces travaux ont été réalisés et appliqués à des projets d'intelligenceambiante pour de l'assistance à des personnes et plus particulièrement dans le cadre du projetITEA- MIDAS.
APA, Harvard, Vancouver, ISO, and other styles
28

Bernard, Simon. "Forêts aléatoires : de l’analyse des mécanismes de fonctionnement à la construction dynamique." Phd thesis, Rouen, 2009. http://www.theses.fr/2009ROUES011.

Full text
Abstract:
Les travaux de cette thèse se situent dans le domaine de l’apprentissage automatique et concernent plus particulièrement la paramétrisation des forêts aléatoires, une technique d’ensembles de classifieurs utilisant des arbres de décision. Nous nous intéressons à deux paramètres importants pour l’induction de ces forêts : le nombre de caractéristiques choisies aléatoirement à chaque noeud et le nombre d’arbres. Nous montrons d’abord que la valeur du premier paramètre doit être choisie en fonction des propriétés de l’espace de description, et proposons dans ce cadre un nouvel algorithme nommé Forest-RK exploitant ces propriétés. Nous montrons ensuite qu’avec un processus statique d’induction de Forêts, certains arbres provoquent une diminution des performances de l’ensemble, en dégradant le compromis force/corrélation. Nous en déduisons un algorithme d’induction dynamique particulièrement performant en comparaison avec les procédures d’induction statique
This research work is related to machine learning and more particularlydealswiththeparametrizationofRandomForests,whichareclassifierensemble methods that use decision trees as base classifiers. We focus on two important parameters of the forest induction : the number of features randomly selected at each node and the number of trees. We first show that the number of random features has to be chosen regarding to the feature space properties, and we propose hence a new algorithm called Forest-RK that exploits those properties. We then show that a static induction process implies that some of the trees of the forest make the ensemble generalisation error decrease, by deteriorating the strength/correlation compromise. We finaly propose an original random forest dynamic induction algorithm that favorably compares to static induction processes
APA, Harvard, Vancouver, ISO, and other styles
29

Bézenac, Emmanuel de. "Modeling physical processes with deep learning : a dynamical systems approach." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS203.

Full text
Abstract:
L'apprentissage profond s'impose comme un outil prédominant pour l'IA, avec de nombreuses applications fructueuses pour des taches où les données sont abondantes et l'accès aux connaissances préalables est difficile. Cependant ce n'est pas encore le cas dans le domaine des sciences naturelles, et encore moins pour l'étude des systèmes dynamiques. En effet, ceux-ci font l'objet d'études depuis des siècles, une quantité considérable de connaissances a ainsi été acquise, et des algorithmes et des méthodes ingénieux ont été développés. Cette thèse a donc deux objectifs principaux. Le premier concerne l'étude du rôle que l'apprentissage profond doit jouer dans ce vaste écosystème de connaissances, de théories et d'outils. Nous tenterons de répondre à cette question générale à travers un problème concret: la modélisation de processus physiques complexes à l'aide de l'apprentissage profond. Le deuxième objectif est en quelque sorte son contraire; il concerne l'analyse les algorithmes d'apprentissage profond à travers le prisme des systèmes dynamiques et des processus physiques, dans le but d'acquérir une meilleure compréhension et de développer de nouveaux algorithmes pour ce domaine
Deep Learning has emerged as a predominant tool for AI, and has already abundant applications in fields where data is abundant and access to prior knowledge is difficult. This is not necessarily the case for natural sciences, and in particular, for physical processes. Indeed, these have been the object of study since centuries, a vast amount of knowledge has been acquired, and elaborate algorithms and methods have been developped. Thus, this thesis has two main objectives. The first considers the study of the role that deep learning has to play in this vast ecosystem of knowledge, theory and tools. We will attempt to answer this general question through a concrete problem: the one of modelling complex physical processes, leveraging deep learning methods in order to make up for lacking prior knowledge. The second objective is somewhat its converse: it focuses on how perspectives, insights and tools from the field of study of physical processes and dynamical systems can be applied in the context of deep learning, in order to gain a better understanding and develop novel algorithms
APA, Harvard, Vancouver, ISO, and other styles
30

Pastor, Philippe. "Étude et application des méthodes d'apprentissage pour la navigation d'un robot en environnement inconnu." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0013.

Full text
Abstract:
L'objet de cette thèse est l'étude des méthodes d'apprentissage par renforcement en vue de son application à la navigation d'un robot mobile autonome. Après une présentation des méthodes d'apprentissage développées depuis les débuts de la Cybernétique jusqu'à aujourd'hui en Intelligence Artificielle, nous présentons les fondements mathématiques de l'apprentissage par renforcement que sont la théorie des automates d'apprentissage et la Programmation Dynamique en temps réel. Les chapitres suivants sont consacrés au problème de la navigation d'un robot mobile autonome évoluant dans un environnement qui lui est inconnu. Pour répondre à ce problème, nous proposons d'utiliser différents algorithmes d'apprentissage par renforcement issus, soit des automates d'apprentissage, soit du G-learning. Les performances de ces algorithmes sont ensuite comparées à partir d'expérimentations menées sur un système non-holonome. Enfin, le derneir chapitre propose une extension originale de ce type d'apprentissage dans le but de construire une carte représentant la topolgie de l'environnement dans lequel le robot évolue.
APA, Harvard, Vancouver, ISO, and other styles
31

Meghnoudj, Houssem. "Génération de caractéristiques à partir de séries temporelles physiologiques basée sur le contrôle optimal parcimonieux : application au diagnostic de maladies et de troubles humains." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT003.

Full text
Abstract:
Dans cette thèse, une nouvelle méthodologie a été proposée pour la génération de caractéristiques à partir de signaux physiologiques afin de contribuer au diagnostic d'une variété de maladies cérébrales et cardiaques. Basée sur le contrôle optimal parcimonieux, la génération de caractéristiques dynamiques parcimonieuses (SDF) s'inspire du fonctionnement du cerveau. Le concept fondamental de la méthode consiste à décomposer le signal de manière parcimonieuse en modes dynamiques qui peuvent être activés et/ou désactivés au moment approprié avec l'amplitude adéquate. Cette décomposition permet de changer le point de vue sur les données en donnant accès à des caractéristiques plus informatives qui sont plus fidèles au concept de production des signaux cérébraux. Néanmoins, la méthode reste générique et polyvalente puisqu'elle peut être appliquée à un large éventail de signaux. Les performances de la méthode ont été évaluées sur trois problématiques en utilisant des données réelles accessibles publiquement, en abordant des scénarios de diagnostic liés à : (1) la maladie de Parkinson, (2) la schizophrénie et (3) diverses maladies cardiaques. Pour les trois applications, les résultats sont très concluants, puisqu'ils sont comparables aux méthodes de l'état de l'art tout en n'utilisant qu'un petit nombre de caractéristiques (une ou deux pour les applications sur le cerveau) et un simple classifieur linéaire suggérant la robustesse et le bien-fondé des résultats. Il convient de souligner qu'une attention particulière a été accordée à l'obtention de résultats cohérents et significatifs avec une explicabilité sous-jacente
In this thesis, a novel methodology for features generation from physiological signals (EEG, ECG) has been proposed that is used for the diagnosis of a variety of brain and heart diseases. Based on sparse optimal control, the generation of Sparse Dynamical Features (SDFs) is inspired by the functioning of the brain. The method's fundamental concept revolves around sparsely decomposing the signal into dynamical modes that can be switched on and off at the appropriate time instants with the appropriate amplitudes. This decomposition provides a new point of view on the data which gives access to informative features that are faithful to the brain functioning. Nevertheless, the method remains generic and versatile as it can be applied to a wide range of signals. The methodology's performance was evaluated on three use cases using openly accessible real-world data: (1) Parkinson's Disease, (2) Schizophrenia, and (3) various cardiac diseases. For all three applications, the results are highly conclusive, achieving results that are comparable to the state-of-the-art methods while using only few features (one or two for brain applications) and a simple linear classifier supporting the significance and reliability of the findings. It's worth highlighting that special attention has been given to achieving significant and meaningful results with an underlying explainability
APA, Harvard, Vancouver, ISO, and other styles
32

Pierrot, David. "Détection dynamique des intrusions dans les systèmes informatiques." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2077.

Full text
Abstract:
La démocratisation d’Internet, couplée à l’effet de la mondialisation, a pour résultat d’interconnecter les personnes, les états et les entreprises. Le côté déplaisant de cette interconnexion mondiale des systèmes d’information réside dans un phénomène appelé « Cybercriminalité ». Des personnes, des groupes mal intentionnés ont pour objectif de nuire à l’intégrité des systèmes d’information dans un but financier ou pour servir une cause. Les conséquences d’une intrusion peuvent s’avérer problématiques pour l’existence d’une entreprise ou d’une organisation. Les impacts sont synonymes de perte financière, de dégradation de l’image de marque et de manque de sérieux. La détection d’une intrusion n’est pas une finalité en soit, la réduction du delta détection-réaction est devenue prioritaire. Les différentes solutions existantes s’avèrent être relativement lourdes à mettre place aussi bien en matière de compétence que de mise à jour. Les travaux de recherche ont permis d’identifier les méthodes de fouille de données les plus performantes mais l’intégration dans une système d’information reste difficile. La capture et la conversion des données demandent des ressources de calcul importantes et ne permettent pas forcément une détection dans des délais acceptables. Notre contribution permet, à partir d’une quantité de données relativement moindre de détecter les intrusions. Nous utilisons les événements firewall ce qui réduit les besoins en terme de puissance de calcul tout en limitant la connaissance du système d’information par les personnes en charge de la détection des intrusions. Nous proposons une approche prenant en compte les aspects techniques par l’utilisation d’une méthode hybride de fouille de données mais aussi les aspects fonctionnels. L’addition de ces deux aspects est regroupé en quatre phases. La première phase consiste à visualiser et identifier les activités réseau. La deuxième phase concerne la détection des activités anormales en utilisant des méthodes de fouille de données sur la source émettrice de flux mais également sur les actifs visés. Les troisième et quatrième phases utilisent les résultats d’une analyse de risque et d’audit technique de sécurité pour une prioritisation des actions à mener. L’ensemble de ces points donne une vision générale sur l’hygiène du système d’information mais aussi une orientation sur la surveillance et les corrections à apporter. L’approche développée a donné lieu à un prototype nommé D113. Ce prototype, testé sur une plate-forme d’expérimentation sur deux architectures de taille différentes a permis de valider nos orientations et approches. Les résultats obtenus sont positifs mais perfectibles. Des perspectives ont été définies dans ce sens
The expansion and democratization of the digital world coupled with the effect of the Internet globalization, has allowed individuals, countries, states and companies to interconnect and interact at incidence levels never previously imagined. Cybercrime, in turn, is unfortunately one the negative aspects of this rapid global interconnection expansion. We often find malicious individuals and/or groups aiming to undermine the integrity of Information Systems for either financial gain or to serve a cause. The consequences of an intrusion can be problematic for the existence of a company or an organization. The impacts are synonymous with financial loss, brand image degradation and lack of seriousness. The detection of an intrusion is not an end in itself, the reduction of the delta detection-reaction has become a priority. The different existing solutions prove to be cumbersome to set up. Research has identified more efficient data mining methods, but integration into an information system remains difficult. Capturing and converting protected resource data does not allow detection within acceptable time frames. Our contribution helps to detect intrusions. Protect us against Firewall events which reduces the need for computing power while limiting the knowledge of the information system by intrusion detectors. We propose an approach taking into account the technical aspects by the use of a hybrid method of data mining but also the functional aspects. The addition of these two aspects is grouped into four phases. The first phase is to visualize and identify network activities. The second phase concerns the detection of abnormal activities using data mining methods on the source of the flow but also on the targeted assets. The third and fourth phases use the results of a risk analysis and a safety verification technique to prioritize the actions to be carried out. All these points give a general vision on the hygiene of the information system but also a direction on monitoring and corrections to be made.The approach developed to a prototype named D113. This prototype, tested on a platform of experimentation in two architectures of different size made it possible to validate our orientations and approaches. The results obtained are positive but perfectible. Prospects have been defined in this direction
APA, Harvard, Vancouver, ISO, and other styles
33

Djebra, Yanis. "Accelerated Dynamic MR Imaging Using Linear And Non-Linear Machine Learning-Based Image Reconstruction Models." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT011.

Full text
Abstract:
L'imagerie par Résonance Magnétique (IRM) dynamique est d'une grande valeur pour le diagnostic médical grâce à sa polyvalence en termes de contraste, sa haute résolution spatiale, son rapport signal/bruit élevé et permet l'obtention non invasives d'images multi-planaires. Elle peut être utile pour l'imagerie du cerveau et du cœur entre autres, ainsi que pour la détection d'anomalies. De plus, la disponibilité croissante de machines de Tomographie par Émission de Positrons (TEP) / IRM permet l'acquisition simultanée de données de TEP et IRM pour des informations complémentaires. Cependant, un défi majeur en IRM dynamique est la reconstruction d'images à partir de données d'espace-k échantillonnées en dessous de la fréquence de Nyquist. De nombreuses méthodes ont été proposées pour l'imagerie IRM sous-échantillonnée, notamment l'imagerie parallèle et le compressed sensing.Le premier objectif de cette thèse est de montrer le potentiel et l'utilité du modèle de sous-espace linéaire pour l'imagerie IRM sous respiration libre. Ce modèle peut théoriquement capturer des mouvements respiratoires et cardiaques réguliers. Cependant, des mouvements irréguliers peuvent survenir, tels qu'une respiration erratique ou un mouvement global causé par l'inconfort du patient. Une première question se pose donc naturellement : un tel modèle peut-il capturer ces types de mouvement et, si oui, peut-il reconstruire les images IRM sans artefacts ? Nous démontrons dans cette thèse comment le modèle de sous-espace peut efficacement reconstruire des images à partir de données d'espace-k fortement sous-échantillonnées. Une première application est présentée où nous reconstruisons des images IRM dynamiques avec haute résolution spatiale et temporelle et les utilisons pour corriger le mouvement des données TEP. Une deuxième application sur la cartographie T1 cardiaque est présentée. Des données sous-échantillonnées ont été acquises à l'aide d'une séquence inversion-récupération sous respiration libre, et des images IRM 3D dynamiques du cœur entier ont été reconstruites.Le deuxième objectif de cette thèse est de comprendre les limites du modèle de sous-espace linéaire et de développer un nouveau modèle qui pallie ces limitations. Le modèle de sous-espace suppose que les données de haute dimension résident dans un sous-espace linéaire qui capture les corrélations spatiotemporelles des images dynamiques. Ceci repose sur un modèle de réduction de dimension linéaire et ne prend pas en compte les caractéristiques intrinsèquement non linéaires du signal. Des modèles basés sur l'apprentissage de variétés ont donc été explorés et visent à apprendre la structure intrinsèque du signal en résolvant des problèmes de réduction de dimensionnalité non linéaires. Nous présentons dans cette thèse une stratégie alternative pour la reconstruction d'images IRM basée sur l'apprentissage de variétés. La méthode proposée apprend la structure des variétés via un alignement linéaire des espaces tangents (LTSA) et peut être interprétée comme une généralisation non linéaire du modèle de sous-espace. Des validations ont été effectuées sur des études de simulation numérique ainsi que sur des expériences d'imagerie cardiaque 2D et 3D in vivo, démontrant des performances améliorées par rapport à l'état-de-l'art.Les deux premiers objectifs présentent respectivement des modèles linéaires et non linéaires, mais ces méthodes utilisent des techniques d'optimisation linéaire conventionnelles pour résoudre le problème de reconstruction. L'utilisation de réseaux de neurones profonds pour l'optimisation peut procurer une meilleure puissance de représentation non linéaire. Des premiers résultats sur les approches basées sur l'apprentissage profond sont présentés dans cette thèse et l'état-de-l'art est discuté. Le dernier chapitre présente les conclusions, discute des contributions de l'auteur et détaille les perspectives de recherche potentielles ouvertes par le travail effectué dans cette thèse
Dynamic Magnetic Resonance (MR) imaging is of high value in medical diagnosis thanks to its contrast versatility, high spatial resolution, high Signal-to-Noise Ratio (SNR), and allows for non-invasive multi-planar images of the body. It can be particularly useful for imaging the brain, heart, spine, and joints, as well as for detecting abnormalities. In addition, the increasing availability of Positron Emission Tomography (PET)/MR machines enables simultaneous acquisition of PET and MR data for better reconstruction and complementary information. However, a key challenge in dynamic MRI is reconstructing high-dimensional images from sparse k-space data sampled below the Nyquist sampling rate. Many methods have been proposed for accelerated imaging with sparse sampling, including parallel imaging and compressed sensing.The first objective of this thesis is to show the potential and usefulness of the linear subspace model for free-breathing MR imaging. Such a model can in principle capture regular respiratory and cardiac motion. However, when dealing with lengthy scans, irregular motion patterns can occur, such as erratic breathing or bulk motion caused by patient discomfort. A first question thus naturally arises: can such a model capture irregular types of motion and, if so, can it reconstruct images from a dynamic MR scan presenting bulk motion and irregular respiratory motion? We demonstrate in this thesis how the subspace model can efficiently reconstruct artifact-free images from highly undersampled k-space data with various motion patterns. A first application is presented where we reconstruct high-resolution, high frame-rate dynamic MR images from a PET/MR scanner and use them to correct motion in PET data, capturing complex motion patterns such as irregular respiratory patterns and bulk motion. A second application on cardiac T1 mapping is presented. Undersampled k-space data were acquired using a free-breathing, ECG-gated inversion recovery sequence, and dynamic 3D MR images of the whole heart were reconstructed leveraging the linear subspace model.The second objective of this thesis is to understand the limits of the linear subspace model and develop a novel dynamic MR reconstruction scheme that palliates these limitations. More specifically, the subspace model assumes that high-dimensional data reside in a low-dimensional linear subspace that captures the spatiotemporal correlations of dynamic MR images. This model relies on a linear dimensionality reduction model and does not account for intrinsic non-linear features of the signal, which may show its limits with higher undersampling rates. Manifold learning-based models have therefore been explored for image reconstruction in dynamic MRI and aim at learning the intrinsic structure of the input data that are embedded in a high-dimensional signal space by solving non-linear dimensionality reduction problems. We present in this thesis an alternative strategy for manifold learning-based MR image reconstruction. The proposed method learns the manifold structure via linear tangent space alignment (LTSA) and can be interpreted as a non-linear generalization of the subspace model. Validation on numerical simulation studies as well as in vivo 2D and 3D cardiac imaging experiments were performed, demonstrating improved performances compared to state-of-the-art techniques.The two first objectives present respectively linear and non-linear models yet both methods use conventional linear optimization techniques to solve the reconstruction problem. In contrast, using deep neural networks for optimization may procure non-linear and better representation power. Early results on deep learning-based approaches are presented in this thesis and state-of-the-art techniques are discussed. The last chapter then presents conclusions, discusses the author's contributions, and considers the potential research perspectives that have been opened up by the work presented in this thesis
APA, Harvard, Vancouver, ISO, and other styles
34

Alwan, Azzam. "Vieillissement du système cardio-vasculaire – Etude de l’activité des peptides d’élastine." Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0034.

Full text
Abstract:
Ce travail vise à proposer une méthodologie statistique pour étudier les peptides produits par la dégradation des protéines d'élastine artérielle. Les approches biologiques indiquent que certains de ces peptides peuvent être considérés comme des signaux moléculaires et peuvent influencer l'évolution des pathologies vasculaires. De plus, des expériences montrent que les propriétés biologiques des peptides sont liées à leurs structures 3D. Dans ce contexte, l'objectif de nos travaux consiste à analyser les structures 3D de ces peptides pour identifier les conformations liées à leurs activités biologiques et pronostiquer l’activité de nouveaux peptides. Il s'agit donc d'identifier les conformations "clés" pour l’activité de ces peptides à l'aide d'une base de données de simulations dynamiques du comportement moléculaire des peptides de l'élastine. Parmi les peptides simulés, certains sont connus pour avoir un effet biologique alors que d'autres ne le sont pas. Dans un premier temps, il est extrêmement important d'identifier les principales conformations de chaque peptide à partir des simulations moléculaires. Un processus combinant plusieurs méthodes statistiques a été proposé dans ce but et a démontré son efficacité sur la base de données existante. Dans un second temps, un détecteur d'activité peptidique a été proposé. Il est capable de prévoir l'activité de nouveaux peptides non étiquetés. Le détecteur proposé est simple et peut être appliqué à de grandes bases de données
This work aims to propose a statistical methodology to study the degradation products of arterial elastin. The proposed approach consists in analyzing simulation data of molecular dynamics of peptides resulting from the degradation of elastin proteins. Biological approaches indicate that some of these peptides can be considered as molecular signals and can influence the evolution of vascular pathologies. Moreover, experiments show that the biological properties of peptides are linked to their 3D structures. In this context, the objective of our work consists in analyzing the 3D structures of these peptides to identify the structures (conformations) related to their biological activities and next predict the activity of new peptides. It is therefore necessary to identify the "key" conformations for the activity of these peptides using a database of dynamic simulations of their molecular behaviour. Among the simulated peptides, some are known to have a biological effect while others are not. First, it is extremely important to identify the main conformations of each peptide from molecular simulations. A process combining several statistical methods is proposed for this purpose and demonstrates its effectiveness on the basis of existing data. Second, a peptide activity detector is proposed. It is able to predict the activity of new unlabelled peptides. The proposed detector is simple and can be applied to large databases
APA, Harvard, Vancouver, ISO, and other styles
35

Leclerc, Sarah Marie-Solveig. "Automatisation de la segmentation sémantique de structures cardiaques en imagerie ultrasonore par apprentissage supervisé." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI121.

Full text
Abstract:
L’analyse d’images médicales joue un rôle essentiel en cardiologie pour la réalisation du diagnostique cardiaque clinique et le suivi de l’état du patient. Parmi les modalités d’imagerie utilisées, l’imagerie par ultrasons, temps réelle, moins coûteuse et portable au chevet du patient, est de nos jours la plus courante. Malheureusement, l’étape nécessaire de segmentation sémantique (soit l’identification et la délimitation précise) des structures cardiaques est difficile en échocardiographie à cause de la faible qualité des images ultrasonores, caractérisées en particulier par l’absence d’interfaces nettes entre les différents tissus. Pour combler le manque d’information, les méthodes les plus performante, avant ces travaux, reposaient sur l’intégration d’informations a priori sur la forme ou le mouvement du cœur, ce qui en échange réduisait leur adaptabilité au cas par cas. De plus, de telles approches nécessitent pour être efficaces l’identification manuelle de plusieurs repères dans l’image, ce qui rend le processus de segmentation difficilement reproductible. Dans cette thèse, nous proposons plusieurs algorithmes originaux et entièrement automatiques pour la segmentation sémantique d’images échocardiographiques. Ces méthodes génériques sont adaptées à la segmentation échocardiographique par apprentissage supervisé, c’est-à-dire que la résolution du problème est construite automatiquement à partir de données pré- analysées par des cardiologues entraînés. Grâce au développement d’une base de données et d’une plateforme d’évaluation dédiées au projet, nous montrons le fort potentiel clinique des méthodes automatiques d’apprentissage supervisé, et en particulier d’apprentissage profond, ainsi que la possibilité d’améliorer leur robustesse en intégrant une étape de détection automatique des régions d’intérêt dans l’image
The analysis of medical images plays a critical role in cardiology. Ultrasound imaging, as a real-time, low cost and bed side applicable modality, is nowadays the most commonly used image modality to monitor patient status and perform clinical cardiac diagnosis. However, the semantic segmentation (i.e the accurate delineation and identification) of heart structures is a difficult task due to the low quality of ultrasound images, characterized in particular by the lack of clear boundaries. To compensate for missing information, the best performing methods before this thesis relied on the integration of prior information on cardiac shape or motion, which in turns reduced the adaptability of the corresponding methods. Furthermore, such approaches require man- ual identifications of key points to be adapted to a given image, which makes the full process difficult to reproduce. In this thesis, we propose several original fully-automatic algorithms for the semantic segmentation of echocardiographic images based on supervised learning ap- proaches, where the resolution of the problem is automatically set up using data previously analyzed by trained cardiologists. From the design of a dedicated dataset and evaluation platform, we prove in this project the clinical applicability of fully-automatic supervised learning methods, in particular deep learning methods, as well as the possibility to improve the robustness by incorporating in the full process the prior automatic detection of regions of interest
APA, Harvard, Vancouver, ISO, and other styles
36

Boutiba, Karim. "On enforcing Network Slicing in the new generation of Radio Access Networks." Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS003.pdf.

Full text
Abstract:
Les réseaux 5G émergents et au-delà promettent de prendre en charge de nouveaux cas d'utilisation tels que la communication holographique immersive, l'internet des compétences et la cartographie interactive 4D [1]. Ces cas d'usage ont des exigences strictes en termes de Quality de Service (Quality of Service), telles qu'une faible latence, un débit descendant et ascendant (Downlink (DL)/Uplink (UL)) élevé, ainsi qu'une faible consommation d'énergie. Les spécifications du groupe de normalisation 3GPP ont introduit de nombreuses fonctionnalités aux système radio 5G (5G NR), dans le but d'améliorer l'efficacité spectrale de la 5G et de répondre aux exigences strictes et hétérogènes des services de la 5G et au-delà. Parmi les principales fonctionnalités de la 5G NR, on peut citer l'introduction du concept de numérologie et BandWidth Part (BWP), le multiplexage temporel (TDD) dynamique et Connected-mode Discontinuous Reception (C-DRX). Toutefois, les spécifications 3GPP n'indiquent pas comment configurer la next gNode B (gNB)/User Equipment (UE) pour optimiser l'utilisation des fonctionnalités 5G NR. Afin de combler ce manque, nous proposons de nouvelles solutions qui mettent en œuvre des fonctionnalités 5G NR en appliquant les techniques de l'apprentissage automatique ou Machine Learning (ML), en particulier l'apprentissage profond par renforcement ou Deep Reinforcement Learning (DRL). En effet, les outils de l'intelligence artificielle jouent un rôle essentiel dans l'optimisation des systèmes de communication et des réseaux [2] grâce à leurs capacités à rendre le réseau capable de s'auto-configurer et s'auto-optimiser.Dans cette thèse, nous proposons plusieurs solutions pour permettre une configuration intelligente du réseau d'accès radio (RAN). Nous avons divisé les solutions en trois parties distinctes.Dans la première partie, nous proposons deux contributions. Tout d'abord, nous présentons NRflex, une solution de découpage du RAN en tranches (ou slicing), aligné sur l'architecture Open RAN (O-RAN). Par la suite, nous modélisons le problème de découpage du RAN en tranches comme un problème Mixed-Integer Linear Programming (MILP). Après avoir montré que la résolution du problème prend un temps exponentiel, nous avons introduit une nouvelle approche pour le résoudre en un temps polynomial, ce qui est très important pour la fonction de l'ordonnancement (scheduling) des ressources radio. La nouvelle approche consiste à formaliser et résoudre ce problème par le biais l'apprentissage par renforcement profond (DRL).Dans la deuxième partie de la thèse, nous proposons une solution basée sur le DRL pour permettre un TDD dynamique dans une seule cellule 5G NR. La solution a été implémentée dans la plateforme OpenAirInterface (OAI) et testée avec UEs réels. Nous avons ensuite étendu la solution, en tirant parti de Multi-Agent Deep Reinforcement Learning (MADRL), pour prendre en charge plusieurs cellules en tenant compte de l'interférence radio entre les liaisons transversales entre les cellules.Dans la dernière partie de la thèse, nous avons proposé trois solutions pour optimiser le RAN afin de prendre en charge les services URLLC. Tout d'abord, nous avons proposé une solution en deux étapes basées sur l'apprentissage automatique pour prédire les coupures du lien radio ou Radio Link Failure (RLF). Le modèle de prédiction RLF a été entraîné avec des données réelles obtenues à partir d'un banc d'essai 5G. Dans la deuxième contribution, nous avons proposé une solution basée sur le DRL pour réduire la latence UL. Notre solution alloue (prédit) dynamiquement les futurs besoins en ressource radio du UL en apprenant du modèle de trafic. Dans la dernière contribution, nous introduisons une solution basée sur le DRL afin d'équilibrer la latence et la consommation d'énergie en calculant conjointement les paramètres C-DRX et la configuration BWP
The emerging 5G networks and beyond promise to support novel use cases such as immersive holographic communication, Internet of Skills, and 4D Interactive mapping [usecases]. These use cases require stringent requirements in terms of Quality of Service (QoS), such as low latency, high Downlink (DL)/Uplink (UL) throughput and low energy consumption. The 3rd Generation Partnership Project (3GPP) specifications introduced many features in 5G New Radio (NR) to improve the physical efficiency of 5G to meet the stringent and heterogeneous requirements of beyond 5G services. Among the key 5G NR features, we can mention the numerology, BandWidth Part (BWP), dynamic Time Duplex Division (TDD) and Connected-mode Discontinuous Reception (C-DRX). However, the specifications do not provide how to configure the next Generation Node B (gNB)/User Equipment (UE) in order to optimize the usage of the 5G NR features. We enforce the 5G NR features by applying Machine Learning (ML), particularly Deep Reinforcement Learning (DRL), to fill this gap. Indeed, Artificial Intelligence (AI)/ML is playing a vital role in communications and networking [1] thanks to its ability to provide a self-configuring and self-optimizing network.In this thesis, different solutions are proposed to enable intelligent configuration of the Radio Access Network (RAN). We divided the solutions into three different parts. The first part concerns RAN slicing leveraging numerology and BWPs. In contrast, the second part tackles dynamic TDD, and the last part goes through different RAN optimizations to support Ultra-Reliable and Low-Latency Communication (URLLC) services.In the first part, we propose two contributions. First, we introduce NRflex, a RAN slicing framework aligned with Open RAN (O-RAN) architecture. NRflex dynamically assigns BWPs to the running slices and their associated User Equipment (UE) to fulfill the slices' required QoS. Then, we model the RAN slicing problem as a Mixed-Integer Linear Programming (MILP) problem. To our best knowledge, this is the first MILP modeling of the radio resource management featuring network slicing, taking into account (i) Mixed-numerology, (ii) both latency and throughput requirements (iii) multiple slices attach per UE (iv) Inter-Numerology Interference (INI). After showing that solving the problem takes an exponential time, we consider a new approach in a polynomial time, which is highly required when scheduling radio resources. The new approach consists of formalizing this problem using a DRL-based solver.In the second part of this thesis, we propose a DRL-based solution to enable dynamic TDD in a single 5G NR cell. The solution is implemented in OAI and tested using real UEs. Then, we extend the solution by leveraging Multi-Agent Deep Reinforcement Learning (MADRL) to support multiple cells, considering cross-link interference between cells.In the last part, we propose three solutions to optimize the RAN to support URLLC services. First, we propose a two-step ML-based solution to predict Radio Link Failure (RLF). We combine Long Short-Term Memory (LSTM) and Support Vector Machine (SVM) to find the correlation between radio measurements and RLF. The RLF prediction model was trained with real data obtained from a 5G testbed. In the second contribution, we propose a DRL-based solution to reduce UL latency. Our solution dynamically allocates the future UL grant by learning from the dynamic traffic pattern. In the last contribution, we introduce a DRL-based solution to balance latency and energy consumption by jointly deriving the C-DRX parameters and the BWP configuration
APA, Harvard, Vancouver, ISO, and other styles
37

Versini, Raphaëlle. "Structural basis of outer-mitochondrial membrane mitofusin-guided fusion." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS653.pdf.

Full text
Abstract:
Le projet de doctorat porte sur l'étude structurale des mitofusines (Mfn1/2 chez l'homme et Fzo1 chez la levure) en utilisant principalement des méthodes basées sur la modélisation telles que la dynamique moléculaire ou les méthodes de prédiction de structure basées sur l'intelligence artificielle (principalement AlphaFold). Les mitochondries forment un réseau complexe à l'intérieur des cellules, subissant des événements continus de fusion et de fission. Ces processus façonnent la dynamique mitochondriale et sont essentiels pour l'entretien, la fonction, la distribution et l'héritage des mitochondries. La morphologie de ces dernières répond donc aux changements physiologiques constants de la cellule. Les larges GTPase impliquées dans l'ancrage et la fusion des membranes externes de mitochondrie sont des protéines transmembranaires appelées mitofusines. Les mitofusines Mfn1 et Mfn2 se trouvent chez les mammifères. Fzo1 (Fuzzy Onion 1) est l'homologue unique de Mfn1/2 chez la levure Saccharomyces cerevisiae. La fusion de la membrane interne mitochondriale et l'organisation des crêtes sont médiées par l'OPA1 humaine (Atrophie Optique 1) et la Mgm1 de la levure (Maintenance du Génome Mitochondrial 1). La dysfonction de la fusion mitochondriale est liée à plusieurs troubles neurodégénératifs, tels que Parkinson, Alzheimer et la maladie de Huntington. En effet, il a été montré que les mutations dans Mfn2 induisent le développement et la progression de dystrophies musculaires, telles que la maladie de Charcot-Marie-Tooth de type 2A, la forme la plus courante de la maladie CMT axonale. Le mécanisme exact par lequel les mitofusines contribuent à la dysfonction mitochondriale, ainsi que le mécanisme moléculaire exact de la fusion, ne sont pas encore entièrement compris. Dans l'ensemble, la fusion mitochondriale joue un rôle important dans la CMT2A, il est donc d'une importance capitale de comprendre pleinement le processus au niveau moléculaire. Les structures de Mfn1 et Mfn2 ont étés partiellement résolue, le domaine transmembranaire étant exclu, mais aucune structure résolue n'est disponible pour Fzo1. Fzo1 est intégré à membrane externe de mitochondrie avec ses deux domaines transmembranaires, exposant les parties N- et C-terminales vers le cytosol et une boucle vers l'espace intermembranaire. Du côté N-terminal, on trouve deux domaines de répétitions en heptad (HRs), HRN (présent uniquement chez la levure) et HR1, flanquant un domaine GTPase. Un troisième domaine HR, HR2, se trouve dans la partie C-terminale. Certains modèles de Fzo1 ont été construits avec comme template la protéine bactérienne de type dynamin-like (BDLP). BDLP est impliquée dans le remodelage des membranes et existe sous deux états conformationnels, une version compacte fermée qui passe à une structure étendue ouverte lors de la liaison au GTP, sur laquelle les modèles construits étaient basés. L'objectif du doctorat est de mettre à jour le modèle de Fzo1 construit en 2017, en travaillant dans un premier temps le domaine transmembranaire à l'aide de dynamiques moléculaires à plusieurs échelles. Un autre projet a consisté à étudier l'hélice amphipathique du domaine HR1 de Mfn1 (MfnA-AH), à tester ses capacités de liaison à la membrane. Initialement, nous avons utilisé des simulations gros grains, établissant ainsi une base solide pour évaluer la capacité prédictive de la famille de champs de force MARTINI. En utilisant d'autres simulations réalisées avec la pénétratine, nous avons pu fournir une analyse comparative des interactions AH-membranes dans les champs de force MARTINI. Mfn1-AH a ensuite été caractérisé plus en détail à l'aide de simulations tout-atomiques
The Phd project is the structural study of mitofusins (Mfn1/2 in humans and Fzo1 in yeasts) using mainly modeling-based methods such as molecular dynamics or structure prediction methods based on artificial intelligence (mainly AlphaFold). This project is a part of an ANR (MITOFUSION) shared between different partners (Laboratoire de Biochimie Théorique: Antoine Taly, Marc Baaden, Laboratoire des Biomolécules: Patrick Fuchs, Laboratoire de Biologie Moléculaire et Cellulaire des Eucaryotes: Mickaël Cohen, Institut de Psychiatrie et Neurosciences de Paris: David Tareste) whose goal is to understand the structure-function relationships of the mitofusin. Mitochondria form a complex network inside the cells, undergoing continuous fusion and fission events. These processes shape mitochondrial dynamics and are essential for the maintenance, function, distribution and inheritance of mitochondria. The morphology of the latter therefore respond to the ever-changing physiological changes of the cell. The large GTPase involved in the tethering and fusion of the mitochondrial outer membranes (OM) are transmembrane proteins called mitofusins. The mitofusins Mfn1 and Mfn2 can be found in mammals. Fzo1 (Fuzzy Onion 1) is the unique mitofusin homologue in Saccharomyces cerevisiae. The mitochondrial inner membrane fusion and cristea organisation is mediated by human OPA1 (Optic Atrophy 1) and yeast Mgm1 (Mitochondrial Genome Maintenance 1). Mitochondrial fusion dysfonction is related to several neurodegenerative disorders, such as Parkinson, Alzheimer and Huntingtion diseases. As a matter of fact, research has shown that mutations in Mfn2 induce the development and progression of muscular dystrophies, such as Charcot-Marie-Tooth Type 2A, the most common form of axonal CMT disease. The exact mechanism by which the mitofusins contributes to mitochondria dysfunction as well as the exact molecular fusion mechanism is not fully understood yet. Overall, mitochondrial fusion plays an important role in CMT2A, it is thus of paramount importance to get a full understanding of the process at the molecular level. The structure of both Mfn1 and Mfn2 was partially solved, the transmembrane domain being excluded, and no solved structure are available for Fzo1. With our ANR partners, we decided to work on the yeast version of Mitofusin (named Fzo1) as it is a good model (of homology with human Mfn1 and Mfn2) as yeast are convenient hosts for testing how other protein partners are involved in the process (e.g. Ugo1). Fzo1 is embedded in the mitochondrial OM as it possesses two transmembrane domains, exposing N- and C- terminal portions towards the cytosol and a loop towards the intermembrane space. On the N-terminal side can be found two coiled-coil heptad repeats (HRs) domains, HRN (in yeast only) and HR1, flanking a GTPase domain. A third coiled-coil heptad repeats domain HR2 is on the C-terminal portion. Some models of Fzo1 were built based on the mitofusin related bacterial dynamin-like protein (BDLP). BDLP is involved in membrane remodelling and exists in two conformational states, a closed compact version which changes to an opened extended structure, upon GTP-binding, on which the built models were based. The goal of the PhD is to update the model of Fzo1 built in 2017, by working on the transmembrane domains using multiscale molecular dynamics, and then update the overall structure using artificial intelligence methods. An other project consisted in studying the amphipathic helix of HR1 domain of Mfn1 (MfnA-AH), test its membrane binding capabilities. Initially, we employed coarse-grained simulations, establishing a robust foundation for evaluating the predictive capacity of the MARTINI family of force fields. Using other simulations ran with the penetratin, we were able to provide a comparative analysis for the AH-membranes interactions in the MARTINI force-fields. The Mfn1-AH was then further characterized using all-atom simulations
APA, Harvard, Vancouver, ISO, and other styles
38

Devergne, Timothée. "Machine learning methods for computational studies in origins of life." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS376.

Full text
Abstract:
La chimie prébiotique consiste en l’étude des réactions chimiques aux origines de la vie sur Terre. C’est un très vaste sujet qui mobilise plusieurs domaines scientifiques dont la physique numérique. En effet, des simulations de dynamiques moléculaire de haute précision peuvent être menées pour tester l’influence de différents environnements plausibles sur la synthèse de molécules : ce composant a-t-il pu apparaître dans le milieu interstellaire ? Sa formation est-elle favorisée par la présence de surfaces minérales ? Elles peuvent aussi être utilisées pour identifier des intermédiaires réactionnels trop peu stables pour être observés expérimentalement et mieux comprendre les mécanismes de formation. Pour cela, des méthodes d’échantillonnage avancé (EA) comme la metadynamique ou l’umbrella sampling sont utilisées pour explorer et échantillonner l’espace chimique. Ces méthodes peuvent être utilisées par exemple pour étudier la synthèse des acides aminés, qui constituent les briques de base des protéines, des molécules clés pour le vivant. Cela a été fait par Magrino et al, avec l’étude de la synthèse par voie de Strecker de la glycine, l’acide aminé le plus simple, en milieu aqueux. Cela a permis d’identifier tous les intermédiaires réactionnels présents dans cette voie de synthèse et de caractériser leur stabilité relative. Cependant, ces simulations dites ab initio qui prennent en compte les degrés de liberté électroniques ont un coût de calcul élevé et seuls de petits systèmes de l’ordre de la centaine d’atomes peuvent être étudiés. Pour remédier à ce problème, des méthodes d’apprentissage automatique (AA) qui permettent de réduire ce temps de calcul ont été mises en places pour des systèmes à l’équilibre. Peu d’études ont proposé des méthodes d’AA s’appliquant à des événements réactifs qui nécessitent un modèle précis sur l’entièreté de l’espace chimique en conjonction avec l’usage de méthodes d’EA. Dans un premier temps, nous nous appuyons sur les données existantes de la première étape de la synthèse prébiotique de Strecker de la glycine pour développer une méthode d’entraînement de modèles d’AA pour l’étude de réactions chimiques en solution. Nous commençons par entraîner un ensemble de modèles, appelé commité, avec le même ensemble d’entraînement mais des conditions initiales différentes. Au cours d’une simulation, nous pouvons suivre l’évolution temporelle de la différence de prédictions des forces au sein du modèle et lorsque le système se trouve en dehors de la zone d’entraînement du modèle nous constatons que cette différence augmente, ce qui nous permet de quantifier la qualité de la prédiction et définir un temps de simulation pendant lequel le modèle se comporte comme une simulation ab initio. Grâce à cela, nous pouvons cibler dans l’espace chimique quelles nouvelles données utiliser pour entraîner un modèle plus performant. En utilisant cette méthode nous parvenons à obtenir des données proches des données ab initio. Nous appliquons ensuite cette nouvelle méthode à un chemin de synthèse prébiotique de la glycine en milieu aqueux différent de celui de Strecker. Ce chemin n’avait jamais été exploré auparavant. Cependant, la méthode développée précédemment nécessite une connaissance préalable du mécanisme de transition. Dans la deuxième partie de cette thèse, nous utilisons des trajectoires ab initio d’échantillonnage de chemin de transition qui sont des trajectoires démarrant de l’état de transition vers les bassins d’équilibre qui couvrent l’entièreté de l’espace chimique et qui ne demande pas une caractérisation préalable du mécanisme. Ces trajectoires sont utilisées pour entraîner un modèle qui peut-être utilisé pour récupérer les données thermodynamiques mais aussi cinétiques d’une réaction avec une qualité ab initio pour un moindre coût
Prebiotic chemistry is the study of chemical reactions at the origins of life on earth. It is a very wide subject that requires the contribution of many scientific fields, including numerical physics. Indeed, highly accurate molecular dynamics simulations are performed to test the influence of different environnement on the synthesis of molecules: could this componant appear in interstellar medium? Is its formation impacted by the presence of mineral surfaces? They can also be used to identify intermediates that are too unstable to be observed experimentally and better understand the mechanism of formation. To do so, enhanced sampling (ES) methods such as metadynamics or umbrella sampling are used to explore and sample the chemical landscape. These methods can be used to study the synthesis of amino acids that are the building blocks of proteins. This was done by Magrino et al, with the study of the Strecker synthesis of glycine, the simplest amino acid, in water. This allowed to identify all the intermediates and characterize their stability. However, these simulations called ab initio which take into account the electronic degrees of freedom are computationnally expensive and only small systems of a few hundreds atoms can be studied. To solve this problem, machine learning (ML) methods have been put into place that allow to reduce the computational time for equilibrium system. Only few ML methods have been suggested to study reactive events because this requires an accurate model on the whole chemical space. In a first time, we use the existing data from the study of the prebiotic synthesis of glycine to devise a training methods for ML models for chemical reactions in solution. We start by training a set of models, called committee, with the same training set but different initial conditions. During a simulation we track the evolution of deviation of the prediction of forces, and we see that when the model is out of its training zone, this deviation drastically increases. This allows us to define a time during which the model behaves like an ab initio simulation. Thanks to this, we can target in the chemical space what new data to put in the training set to have a more accurate model. By using this method we obtained results close to ab initio accuracy. We then apply this method to a new prebiotic pathway to glycine in water that has never been studies before. However, the method previously developped requires a prior knowledge of the transition mechanism. In the second part of this thesis, we use ab initio transition path sampling trajectories which are trajectories starting from the transition state and relaxing into the equilibrium basins. They cover all the chemical space and are therefore suitable to train a ML model. By using such model we managed not only to recover the thermodynamics of the reaction but also the kinetics. We obtained results close to ab initio accuracy
APA, Harvard, Vancouver, ISO, and other styles
39

Mokhtari, Aimed. "Diagnostic des systèmes hybrides : développement d'une méthode associant la détection par classification et la simulation dynamique." Phd thesis, INSA de Toulouse, 2007. http://tel.archives-ouvertes.fr/tel-00200034.

Full text
Abstract:
Ce travail s'inscrit dans le domaine du diagnostic des systèmes hybrides et est basé sur l'utilisation d'un modèle. Il a pour objectif de diagnostiquer les fautes à partir de la connaissance structurelle, comportementale ou fonctionnelle du système en représentant ces connaissances (modèle du système) séparément de la connaissance sur la tâche de diagnostic. Les systèmes hybrides incluent à la fois des variables continues et discrètes. La dynamique continue est généralement fournie par des équations différentielles et algébriques alors que la partie discrète est modélisée par des automates ou des systèmes à transition. Le formalisme adopté dans ce travail pour modéliser ces systèmes s'appuie sur le modèle " Réseau de Petri Différentiel à Objet " (RdPDO) qui est intégré dans la plate forme de simulation PrODHyS (Process Object Dynamic Hybrid Simulator). Il possède l'avantage de prendre en compte le comportement hybride d'une part, en associant les variables continues aux jetons et d'autre part, en associant un système algébro-différentiel aux places permettant de faire évoluer les variables d'état continues. La méthodologie de diagnostic proposée s'effectue en deux étapes. La première étape consiste à détecter à l'aide d'une classification floue, des fautes qui présentent les mêmes symptômes - à partir d'une connaissance préalable des états de défaillance obtenue par apprentissage - afin de réduire les chemins ou les scénarios à explorer lors de la seconde phase. Cette dernière sert à diagnostiquer la faute parmi celles détectées à l'étape précédente en levant l'ambiguïté. Pour ce faire, deux raisonnements ont été suivis. Le premier, qualifié de raisonnement avant, consiste à former pour chaque faute incriminée, un critère d'écarts entre les mesures effectuées sur le système et celles émanant du modèle avec la faute simulée, sur une fenêtre temporelle et d'isoler ainsi la faute aboutissant au critère le plus faible. Le second raisonnement qualifié de raisonne ment arrière, effectue des calculs similaires mais sur l'évolution temporelle passée du système par une simulation arrière effectuée avec PrODHys, offrant la possibilité supplémentaire par rapport au premier raisonnement de remonter à l'instant de la défaillance. La méthodologie développée est illustrée sur un système hydraulique souvent utilisé comme " benchmark ". Comme nous ne disposons pas d'un système réel, celui-ci est simulé à l'aide d'un modèle de simulation de type RdPDO qui cette fois-ci contient les états de défaillances et des différences (bruits, erreurs de modélisation) par rapport au modèle utilisé pour le diagnostic.
APA, Harvard, Vancouver, ISO, and other styles
40

Vauchel, Nicolas. "Estimation des indices de Sobol à l'aide d'un métamodèle multi-éléments : application à la dynamique du vol." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN008.

Full text
Abstract:
La thèse s'intéresse à une problématique concrète de sécurité des aéronefs. Le domaine de vol post-décroché est un domaine aérodynamiquement complexe où l'écoulement autour des surfaces portantes (ailes et gouvernes) peut présenter de fortes instabilités et peut être partiellement ou massivement décollé. Dans ce domaine de vol, atteignable de façon accidentelle ou volontaire (avions d'entraînement ou de voltige), les moyens de contrôle usuels sont moins efficaces, voire totalement inefficaces, ce qui peut mettre en danger le pilote et ses potentiels passagers. Le travail de recherche s'intéresse à la détermination des prévisions de vol dans le domaine de vol post-décroché, ainsi qu'à leurs dépendances aux structures de modèles utilisées pour les coefficients aérodynamiques et aux incertitudes des données expérimentales sur lesquelles ce modèle repose. La dynamique du mouvement de l'avion est régie par un système dynamique d'équations différentielles ordinaires autonomes non linéaires. Dans ces équations, les effets du fluide sur l'aéronef apparaissent par le biais des coefficients aérodynamiques globaux, qui sont les forces et les moments adimensionnés appliqués par le fluide sur l'aéronef. Ces coefficients dépendent de façon non-linéaire d'un grand nombre de variables, dont la géométrie de l'aéronef, sa vitesse et sa vitesse de rotation par rapport à la Terre, ainsi que des caractéristiques de l'écoulement qui l'entoure. Pour chaque coefficient, un modèle de représentation ayant une certaine structure est déterminé pour décrire ces dépendances complexes. Ce modèle s'appuie sur des données expérimentales recueillies sur des maquettes de taille réduite, les données de vol libre sur avion réel étant trop coûteuses et trop risquées à collecter dans le domaine post-décroché. Une autre piste pour l'établissement de ces bases serait d'utiliser des données venant de calculs numériques. Néanmoins, le caractère instationnaire et complexe de l'écoulement autour de la géométrie 3D de l'aéronef semble rendre les simulations trop coûteuses en terme de temps de calcul pour le moment, même si des études récentes explorent cette direction de recherche. Les modèles utilisés dans le cadre de notre étude sont bâtis exclusivement sur des données expérimentales. Dans le système dynamique, les coefficients aérodynamiques globaux sont évalués par interpolation dans ces tables de données d'après la structure du modèle choisie. De par la nécessité de sélectionner une structure simplificatrice du modèle de représentation des coefficients aérodynamiques globaux, ces modèles sont lacunaires. De plus, ils sont entachés d'incertitudes dues au caractère intrinsèque des expériences. Ces lacunes et ces incertitudes vont impacter les résultats des prévisions de vol. L'objectif initial de la thèse est d'étudier ces impacts.Lors des travaux de thèse, de nouveaux objectifs scientifiques ont émergé. En premier lieu, une nouvelle méthode multi-éléments basée sur des méthodes modernes d'apprentissage automatique est développée. Les méthodes multi-éléments sont des méthodes qui ont été développées pour pallier au manque de précision des polynômes du chaos en présence de discontinuités. En second lieu, une formule analytique reliant les indices de sensibilité de Sobol aux coefficients d'un métamodèle multi-éléments est démontrée. Ces méthodes sont ainsi utilisées dans le cas de la dynamique du vol pour répondre à l'objectif initial de la thèse. Les nombreuses bifurcations que possède le système dynamique du vol peuvent se traduire par des irrégularités et/ou des discontinuités dans l'évolution des variables d'état par rapport aux paramètres incertains. Les méthodes d'analyse de sensibilité et de quantification d'incertitude développées sont alors de bonnes candidates pour effectuer l'analyse du système
The thesis is addressing a concrete issue on aircrafts safety. The post-stall flight domain is a complex flight domain where flows around an airfoil may be highly unstable and massively stalled. In this domain, which can be reached on purpose or accidentally, usual controls are less efficient or completely inefficient, which can endanger the pilot and its passengers. The thesis is about the determination of the flight predictions in the post-stall flight domain, their dependences to the selected model structure and about the uncertainties of the experimental data the model relies on. The dynamic of the motion of the aircraft is governed by a dynamic system of ordinary non-linear differential equations. In these equations, the effects from the fluid on the aircraft are traduced by the global aerodynamic coefficients, the dimensionless forces and moments applied by the fluid on the aircraft. These coefficients depend on a high number of variables in a non-linear fashion. Among these variables are the geometry of the aircraft, its velocity and its rotation rates compared to earth, and characteristics of the surrounding flow. A representation model having a selected structure is determined for every aerodynamic coefficient, in order to represent these complex dependences. This model rely on experimental data obtained on a scale model, free flight data on a real aircraft being too expensive and too risky to get in the post-stall domain. Another way of obtaining data would be to use computational simulations. Nevertheless, the complex and unsteady flows around the 3D geometry of the aircraft makes the simulation too expensive with the current ressources, even if some recent studies begin to explore this direction of research. The selected models in the thesis are built on experimental data only. In the dynamic system, the global aerodynamic coefficients are evaluated by interpolation in these databases according to the selected model structure. The fact of selecting a simplified structure of the model makes it deficient. Moreover, as these models rely on experimental data, they are uncertain. The gaps and the uncertainties of the model have some impacts on the flight predictions. The initial objective of the thesis is therefore to study these impacts.During the thesis, new scientific objectives appeared, objectives going beyond the scope of Flight Dynamics. First, a new multi-element surrogate model for Uncertainty Quantification based on modern Machine learning methods is developed. Multi-element surrogate models were developed to address the loss of accuracy of Polynomial Chaos model in presence of discontinuities. Then, a formula linking the sensitivity Sobol indices to the coefficient of a multi-element surrogate model is derived. These results are used in the case of Flight Dynamics in order to address the issue raised in the initial objective of the thesis. The numerous bifurcations of the dynamic system can be traduced by discontinuities and/or irregularities in the evolution of the state variables compared to the uncertain parameters. The methods of Sensitivity Analysis and of Uncertainty Quantification developed in the thesis are therefore good candidates to analyse the system
APA, Harvard, Vancouver, ISO, and other styles
41

Bessafa, Hichem. "Advanced Estimation Algorithms for Connected and Autonomous Vehicle Applications." Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0075.

Full text
Abstract:
Cette thèse est dédiée au développement d'algorithmes d'estimation avancés spécifiquement conçus pour les applications des véhicules autonomes. Initialement, nous fournissons un aperçu complet des différents contrôleurs de véhicules et des systèmes avancés d'assistance à la conduite, préparant le terrain pour une discussion approfondie sur les modèles de dynamique et de cinématique des véhicules. Nous explorons ensuite les observateurs classiques (basés sur des modèles) et ceux basés sur l'apprentissage automatique (pilotés par les données), en examinant leur littérature et leurs applications dans les contextes des véhicules et de la robotique. Notre recherche introduit plusieurs méthodologies novatrices : d'abord, une approche d'estimation sur un intervalle de temps fini pour les systèmes à paramètres variables linéaires (LPV) discrets, appliquée à la dynamique latérale du véhicule pour estimer le dérapage malgré les incertitudes de la rigidité en courbe. Ensuite, nous proposons un observateur neuro-adaptatif qui combine les réseaux neuronaux avec l'apprentissage concurrent pour estimer les forces inconnues dans le modèle longitudinal du véhicule. En outre, nous présentons un observateur généralisé à grand gain, incorporant des conditions de matrice linéairement inégalitaire (LMI) et une contrainte de seuil sur le paramètre de grand gain, conçu pour gérer des mesures et des contraintes supplémentaires. Cet observateur garantit des bornes de stabilité entrée-état (ISS) sur le bruit de mesure et s'adapte aux systèmes non canoniques via une transformation de sortie et une conception de système augmenté. Enfin, nous validons nos méthodes par des simulations étendues en utilisant le simulateur CARLA et l'estimation de trajectoire avec le jeu de données KITTI, démontrant une performance supérieure en termes de précision, de vitesse de convergence et de robustesse dans divers scénarios de véhicules. Les résultats illustrent des améliorations significatives par rapport aux méthodes traditionnelles, soulignant le potentiel pratique de nos techniques d'estimation avancées pour améliorer les performances des véhicules autonomes
This thesis is dedicated to the development of advanced estimation algorithms specifically designed for autonomous vehicle applications. Initially, we provide a comprehensive overview of various vehicle controllers and advanced driving assistance systems, setting the stage for an in-depth discussion of vehicle dynamics and kinematics models. We then explore both classical (model-based) and machine learning-based (data-driven) observers, examining their literature and applications within vehicular and robotics contexts. Our research introduces several novel methodologies: first, a finite time interval estimation approach for discrete Linear Parameter Varying (LPV) systems, applied to the vehicle's lateral dynamics to estimate side slip despite uncertainties in cornering stiffness. Next, we propose a neuro-adaptive observer that combines neural networks with concurrent learning to estimate unknown forces in the vehicle's longitudinal model. Furthermore, we present a generalized high-gain observer, incorporating Linear Matrix Inequality (LMI) conditions and a threshold constraint on the high-gain parameter, designed to handle additional measurements and constraints. This observer ensures Input-to-State Stability (ISS) bounds on measurement noise and adapts to non-canonical systems via output transformation and augmented system design. Finally, we validate our methods through extensive simulations using the CARLA simulator and trajectory estimation with the KITTI dataset, demonstrating superior performance in terms of accuracy, convergence speed, and robustness in various vehicular scenarios. The outcomes illustrate significant improvements over traditional methods, highlighting the practical potential of our advanced estimation techniques in enhancing autonomous vehicle performance
APA, Harvard, Vancouver, ISO, and other styles
42

Damay, Gabriel. "Dynamic Decision Trees and Community-based Graph Embeddings : towards Interpretable Machine Learning." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAT047.

Full text
Abstract:
L'apprentissage automatique est le domaine des sciences informatiques dont le but est de créer des modèles et des solutions à partir de données sans savoir exactement les instructions qui dirigent intrinsèquement ces modèles. Ce domaine a obtenu des résultats impressionnants mais il est l'objet le sujet d'inquiétudes en raison notamment de l'impossibilité de comprendre et d'auditer les modèles qu'il produit. L'apprentissage automatique interprétable propose une solution à ces inquiétudes en créant des modèles qui sont interprétables de façon inhérante. Cette thèse contribue à l'apprentissage automatique interprétable de deux façons.Tout d'abord, nous étudions les arbres de décision. Il s'agit d'un groupe de méthodes d'apprentissage automatique très connu et qui est interprétable par la façon même dont il est conçu. Cependant, les données réelles sont souvent dynamiques et peu d'algorithmes existent pour maintenir un arbre de décision quand des données peuvent à la fois être ajoutées et supprimées de l'ensemble d'entrainement. Nous proposons un nouvel algorithme nommé FuDyADT pour résoudre ce problème.Ensuite, quand les données sont représentées sous forme de graphe, une technique d'apprentissage automatique très commune, nommée "embedding", consiste à projeter les données sur un espace vectoriel. Ce type de méthodes est cependant non-interprétable en général. Nous proposons un nouvel algorithme d'embedding appelé Parfaite, qui est basé sur la factorisation de la matrice de PageRank personnalisé. Cet algorithme est conçu pour que ses résultats soient interprétables.Nous étudions chacun de ces algorithmes sur un plan à la fois théorique et expérimental. Nous montrons que FuDyADT est au minimum comparable aux algorithmes à l'état de l'art dans les conditions habituelles, tout en étant également capable de fonctionner dans des contextes inhabituels comme dans le cas où des données sont supprimés ou dans le cas où certaines des données sont numériques. Quant à Parfaite, il produit des dimensions d'embedding qui sont alignées avec les communautés du graphe, et qui sont donc interprétables
Machine Learning is the field of computer science that interests in building models and solutions from data without knowing exactly the set of instructions internal to these models and solutions. This field has achieved great results but is now under scrutiny for the inability to understand or audit its models among other concerns. Interpretable Machine Learning addresses these concerns by building models that are inherently interpretable. This thesis contributes to Interpretable Machine Learning in two ways.First, we study Decision Trees. This is a very popular group of Machine Learning methods for classification problems and it is interpretable by design. However, real world data is often dynamic, but few algorithms can maintain a decision tree when data can be both inserted and deleted from the training set. We propose a new algorithm called FuDyADT to solve this problem.Second, when data are represented as graphs, a very common machine learning technique called "embedding" consists in projecting them onto a vectorial space. This kind of method however is usually not interpretable. We propose a new embedding algorithm called Parfaite based on the factorization of the Personalized PageRank matrix. This algorithm is designed to provide interpretable results.We study both algorithms theoretically and experimentally. We show that FuDyADT is at least comparable to state-of-the-art algorithms in the usual setting, while also being able to handle unusual settings such as deletions of data and numerical features. Parfaite on the other hand produces embedding dimensions that align with the communities of the graph, making the embedding interpretable
APA, Harvard, Vancouver, ISO, and other styles
43

Claeys, Emmanuelle. "Clusterisation incrémentale, multicritères de données hétérogènes pour la personnalisation d’expérience utilisateur." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD039.

Full text
Abstract:
Dans de nombreux domaines (santé, vente en ligne, …) concevoir ex nihilo une solution optimale répondant à un problème défini (trouver un protocole augmentant le taux de guérison, concevoir une page Web favorisant l'achat d'un ou plusieurs produits, ...) est souvent très difficile voire impossible. Face à cette difficulté, les concepteurs (médecins, web designers, ingénieurs de production,...) travaillent souvent de façon incrémentale par des améliorations successives d'une solution existante. Néanmoins, définir les modifications les plus pertinentes reste un problème difficile. Pour tenter d'y répondre, une solution adoptée de plus en plus fréquemment consiste à comparer concrètement différentes alternatives (appelées aussi variations) afin de déterminer celle(s) répondant le mieux au problème via un A/B Test. L'idée est de mettre en oeuvre réellement ces alternatives et de comparer les résultats obtenus, c'est-à-dire les gains respectifs obtenus par chacune des variations. Pour identifier la variation optimale le plus rapidement possible, de nombreuses méthodes de test utilisent une stratégie d'allocation dynamique automatisée. Le principe est d'allouer le plus rapidement possible et automatiquement, les sujets testés à la variation la plus performante, par un apprentissage par renforcement. Parmi les méthodes possibles, il existe en théorie des probabilités les méthodes de bandit manchot. Ces méthodes ont montré leur intérêt en pratique mais également des limites, dont en particulier une temps de latence (c'est-à-dire un délai entre l'arrivée d'un sujet à tester et son allocation) trop important, un déficit d'explicabilité des choix et la non-intégration d’un contexte évolutif décrivant le comportement du sujet avant d’être testé. L'objectif global de cette thèse est de proposer une méthode générique d'A/B test permettant une allocation dynamique en temps réel capable de prendre en compte les caractéristiques des sujets, qu'elles soient temporelles ou non, et interprétable a posteriori
In many activity sectors (health, online sales,...) designing from scratch an optimal solution for a defined problem (finding a protocol to increase the cure rate, designing a web page to promote the purchase of one or more products,...) is often very difficult or even impossible. In order to face this difficulty, designers (doctors, web designers, production engineers,...) often work incrementally by successive improvements of an existing solution. However, defining the most relevant changes remains a difficult problem. Therefore, a solution adopted more and more frequently is to compare constructively different alternatives (also called variations) in order to determine the best one by an A/B Test. The idea is to implement these alternatives and compare the results obtained, i.e. the respective rewards obtained by each variation. To identify the optimal variation in the shortest possible time, many test methods use an automated dynamic allocation strategy. Its allocate the tested subjects quickly and automatically to the most efficient variation, through a learning reinforcement algorithms (as one-armed bandit methods). These methods have shown their interest in practice but also limitations, including in particular a latency time (i.e. a delay between the arrival of a subject to be tested and its allocation) too long, a lack of explicitness of choices and the integration of an evolving context describing the subject's behaviour before being tested. The overall objective of this thesis is to propose a understable generic A/B test method allowing a dynamic real-time allocation which take into account the temporals static subjects’s characteristics
APA, Harvard, Vancouver, ISO, and other styles
44

Maag, Maria Coralia Laura. "Apprentissage automatique de fonctions d'anonymisation pour les graphes et les graphes dynamiques." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066050/document.

Full text
Abstract:
La confidentialité des données est un problème majeur qui doit être considéré avant de rendre publiques les données ou avant de les transmettre à des partenaires tiers avec comme but d'analyser ou de calculer des statistiques sur ces données. Leur confidentialité est principalement préservée en utilisant des techniques d'anonymisation. Dans ce contexte, un nombre important de techniques d'anonymisation a été proposé dans la littérature. Cependant, des méthodes génériques capables de s'adapter à des situations variées sont souhaitables. Nous adressons le problème de la confidentialité des données représentées sous forme de graphe, données qui nécessitent, pour différentes raisons, d'être rendues publiques. Nous considérons que l'anonymiseur n'a pas accès aux méthodes utilisées pour analyser les données. Une méthodologie générique est proposée basée sur des techniques d'apprentissage artificiel afin d'obtenir directement une fonction d'anonymisation et d'optimiser la balance entre le risque pour la confidentialité et la perte dans l'utilité des données. La méthodologie permet d'obtenir une bonne procédure d'anonymisation pour une large catégorie d'attaques et des caractéristiques à préserver dans un ensemble de données. La méthodologie est instanciée pour des graphes simples et des graphes dynamiques avec une composante temporelle. La méthodologie a été expérimentée avec succès sur des ensembles de données provenant de Twitter, Enron ou Amazon. Les résultats sont comparés avec des méthodes de référence et il est montré que la méthodologie proposée est générique et peut s'adapter automatiquement à différents contextes d'anonymisation
Data privacy is a major problem that has to be considered before releasing datasets to the public or even to a partner company that would compute statistics or make a deep analysis of these data. Privacy is insured by performing data anonymization as required by legislation. In this context, many different anonymization techniques have been proposed in the literature. These techniques are difficult to use in a general context where attacks can be of different types, and where measures are not known to the anonymizer. Generic methods able to adapt to different situations become desirable. We are addressing the problem of privacy related to graph data which needs, for different reasons, to be publicly made available. This corresponds to the anonymized graph data publishing problem. We are placing from the perspective of an anonymizer not having access to the methods used to analyze the data. A generic methodology is proposed based on machine learning to obtain directly an anonymization function from a set of training data so as to optimize a tradeoff between privacy risk and utility loss. The method thus allows one to get a good anonymization procedure for any kind of attacks, and any characteristic in a given set. The methodology is instantiated for simple graphs and complex timestamped graphs. A tool has been developed implementing the method and has been experimented with success on real anonymized datasets coming from Twitter, Enron or Amazon. Results are compared with baseline and it is showed that the proposed method is generic and can automatically adapt itself to different anonymization contexts
APA, Harvard, Vancouver, ISO, and other styles
45

Maag, Maria Coralia Laura. "Apprentissage automatique de fonctions d'anonymisation pour les graphes et les graphes dynamiques." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066050.

Full text
Abstract:
La confidentialité des données est un problème majeur qui doit être considéré avant de rendre publiques les données ou avant de les transmettre à des partenaires tiers avec comme but d'analyser ou de calculer des statistiques sur ces données. Leur confidentialité est principalement préservée en utilisant des techniques d'anonymisation. Dans ce contexte, un nombre important de techniques d'anonymisation a été proposé dans la littérature. Cependant, des méthodes génériques capables de s'adapter à des situations variées sont souhaitables. Nous adressons le problème de la confidentialité des données représentées sous forme de graphe, données qui nécessitent, pour différentes raisons, d'être rendues publiques. Nous considérons que l'anonymiseur n'a pas accès aux méthodes utilisées pour analyser les données. Une méthodologie générique est proposée basée sur des techniques d'apprentissage artificiel afin d'obtenir directement une fonction d'anonymisation et d'optimiser la balance entre le risque pour la confidentialité et la perte dans l'utilité des données. La méthodologie permet d'obtenir une bonne procédure d'anonymisation pour une large catégorie d'attaques et des caractéristiques à préserver dans un ensemble de données. La méthodologie est instanciée pour des graphes simples et des graphes dynamiques avec une composante temporelle. La méthodologie a été expérimentée avec succès sur des ensembles de données provenant de Twitter, Enron ou Amazon. Les résultats sont comparés avec des méthodes de référence et il est montré que la méthodologie proposée est générique et peut s'adapter automatiquement à différents contextes d'anonymisation
Data privacy is a major problem that has to be considered before releasing datasets to the public or even to a partner company that would compute statistics or make a deep analysis of these data. Privacy is insured by performing data anonymization as required by legislation. In this context, many different anonymization techniques have been proposed in the literature. These techniques are difficult to use in a general context where attacks can be of different types, and where measures are not known to the anonymizer. Generic methods able to adapt to different situations become desirable. We are addressing the problem of privacy related to graph data which needs, for different reasons, to be publicly made available. This corresponds to the anonymized graph data publishing problem. We are placing from the perspective of an anonymizer not having access to the methods used to analyze the data. A generic methodology is proposed based on machine learning to obtain directly an anonymization function from a set of training data so as to optimize a tradeoff between privacy risk and utility loss. The method thus allows one to get a good anonymization procedure for any kind of attacks, and any characteristic in a given set. The methodology is instantiated for simple graphs and complex timestamped graphs. A tool has been developed implementing the method and has been experimented with success on real anonymized datasets coming from Twitter, Enron or Amazon. Results are compared with baseline and it is showed that the proposed method is generic and can automatically adapt itself to different anonymization contexts
APA, Harvard, Vancouver, ISO, and other styles
46

Yan, Yujin. "Μοbile data analysis : rοbust alignment and flexible clustering methοds." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR14.

Full text
Abstract:
La popularité des appareils mobiles dans la vie moderne a révolutionné la communication, la navigation et les activités quotidiennes. Les appareils mobiles génèrent une grande quantité de données, y compris un large éventail de comportements des utilisateurs, allant du suivi de la localisation aux modèles de communication et aux données des capteurs. Ces données à multiples facettes ne saisissent pas seulement les interactions entre les individus et leurs appareils, mais révèlent également les tendances et les préférences sociales. Reconnaissant l'importance des données mobiles, nos recherches sont consacrées à l'exploration et à l'exploitation des comportements quotidiens des utilisateurs enregistrés par les appareils mobiles. Dans un premier temps, nous nous concentrons sur l'analyse des données de trajectoire, un composant des données mobiles qui est généralement représenté sous la forme d'une séquence spatio-temporelle. En utilisant les informations sémantiques intégrées dans les points de trajectoire, nous pouvons obtenir des informations sur les comportements et les activités des utilisateurs. Cependant, l'intégration des dimensions spatiales et temporelles augmente la complexité de l'analyse. Nous proposons une architecture de regroupement de trajectoires basée sur la sémantique pour analyser les données de trajectoires, qui comprend le prétraitement des données, l'exploration de la similarité et les méthodes de regroupement. En outre, nous introduisons un modèle d'exploration des similitudes fondé sur la programmation dynamique pour quantifier la similitude entre les trajectoires, améliorant ainsi notre compréhension des données mobiles. Une analyse expérimentale complète est menée sur un ensemble de données réelles afin de comparer notre modèle avec des méthodes de référence. Les résultats de la comparaison montrent la capacité de notre algorithme à examiner efficacement les associations au sein des données de trajectoire. Pour améliorer le contrôle expérimental, nous proposons un modèle de génération de données simulant des scénarios de la vie quotidienne en générant des données aléatoires fondées sur des données d'utilisateurs réels. Grâce à des comparaisons quantitatives entre l'architecture proposée et d'autres approches, notre algorithme démontre des performances acceptables. En passant des données de trajectoire aux données mobiles multivariées, nous sommes confrontés au défi d'utiliser efficacement divers types de capteurs pour extraire des informations subtiles sur le comportement de l'utilisateur. En introduisant l'algorithme d'alignement de séquences multivariées unidimensionnelles (1D MSA) et l'algorithme d'alignement de séquences multivariées bidimensionnelles (2D MSA), nous facilitons une analyse complète des données mobiles multivariées. Alors que l'algorithme 1D MSA privilégie l'efficacité de calcul, l'algorithme 2D MSA 2D excelle dans l'extraction de similitudes subtiles entre les séquences, ce qui permet une analyse plus détaillée. Parallèlement, nous utilisons différentes méthodes de regroupement pour analyser les sous-séquences similaires obtenues par les deux algorithmes et nous avons obtenu des résultats de regroupement similaires, voire identiques. En outre, les états de l'utilisateur représentés par chaque catégorie dans les résultats du regroupement sont très faciles à interpréter. Cela indique que nos algorithmes peuvent obtenir des résultats stables et cohérents sur des problèmes réels. En outre, nous comparons les sous-séquences similaires obtenues par l'algorithme 2D MSA et les méthodes de référence. Les résultats montrent que l'algorithme 2D MSA que nous proposons est plus performant lorsqu'il s'agit de capturer des similarités subtiles à partir des données. Cette performance robuste fait de l'algorithme 2D MSA un outil puissant pour extraire des sous-séquences significatives dans des données mobiles multivariées, contribuant ainsi à une meilleure interprétation des données et [...]
The widespread popularity of mobile devices in modern life has brought a revolution in communication, navigation, and daily activities. Mobile devices generate a vast amount of data, including a wide range of user behaviors from location tracking to communication patterns and sensor data. This multifaceted data not only captures the interactions between individuals and their devices, but also reveals social trends and preferences. Recognizing the importance of mobile data, our research is dedicated to exploring and mining the user daily behavior recorded by mobile devices. Initially, we focus on analyzing trajectory data, which is a component of mobile data that is typically represented as a spatio-temporal sequence. Using the semantic information embedded in trajectory points, we can gain insights into users' behaviors and activities. However, the integration of spatial and temporal dimensions increases the complexity of the analysis. We propose a semantic-based trajectory clustering (STC) architecture to analyze trajectory data, which includes data preprocessing, similarity exploration, and clustering methods. In addition, we introduce a dynamic programming-based similarity exploration (DPD) model to quantify the similarity between trajectories, thus enhancing our understanding of mobile data. A comprehensive experimental analysis is conducted on a real-world dataset to compare the DPD model with the other baseline methods. The comparison results show the adeptness of our DPD algorithm in effectively examining associations within trajectory data. To enhance experimental control, we propose a data generation model simulating daily life scenarios by generating random data based on real user data. Through quantitative comparisons between the proposed STC architecture and other approaches, our algorithm demonstrates good performance. Transitioning from trajectory data to multivariate mobile data, we are challenged to effectively utilize various sensor types to extract subtle insights into user behavior. By introducing one-dimensional multivariate sequence alignment (1D MSA) algorithm and two-dimensional multivariate sequence alignment (2D MSA) algorithm, we facilitate a comprehensive analysis of multivariate mobile data. While the 1D MSA algorithm prioritizes computational efficiency, the 2D MSA algorithm excels at extracting subtle similarities between sequences, providing a more detailed analysis. Meanwhile, we use some different clustering methods to analyze the similar subsequences obtained by the two algorithms and obtained similar or even identical clustering results. Moreover, the user states represented by each category in the clustering results are highly interpretable. This indicates that our algorithms can obtain stable and real-life consistent results. Furthermore, we compare the similar subsequences obtained by 2D MSA algorithm and baseline methods. The results show that our proposed 2D MSA algorithm has superior performance in capturing subtle similarity from the data. This robust performance makes the 2D MSA algorithm as a powerful tool for extracting meaningful subsequences in multivariate mobile data, contributing to enhanced data interpretation and practical applications
APA, Harvard, Vancouver, ISO, and other styles
47

Veillon, Lise-Marie. "Apprentissage artificiel collectif ; aspects dynamiques et structurels." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD004/document.

Full text
Abstract:
L’apprentissage collectif dans un système multi-agents considère comment une communauté constituée d’agents autonomes partageant un même objectif d’apprentissage peut bénéficier, au niveau individuel et collectif, d’échanges structurés d’informations. Les agents, reliés par un réseau de communication, ont tous la faculté de percevoir des observations, appelées exemples d’apprentissage. Cette thèse s’appuie sur un protocole pré-existant, SMILE (Sound-Multi-agent-Incremental-LEarning), qui organise un échange parcimonieux d’exemples et d’hypothèses. Ce protocole garantit, dans le cas d’agents tous connectés, que les agents obtiennent une hypothèse qui tient compte de tous les exemples perçus par l’ensemble des agents. Il existe des variantes séquentielles de ce protocole qui mettent en place une propagation de l’information pour offrir les mêmes garanties dans un réseau, non pas complet mais, connexe.Cette thèse apporte deux nouveaux éclairages sur l’apprentissage artificiel collectif. Une première étude montre l’influence de la structure du réseau sur l’apprentissage avec un protocole dont les communications sont limitées au voisinage, sans propagation. Une seconde contribution présente et analyse un nouveau protocole, Waves, qui préserve les garanties de SMILE et dont les interactions en parallèle rendent l’apprentissage en réseau plus dynamique. Ce protocole est évalué en détail,dans un contexte simplifié de tour par tour, ce qui permet de le raffiner par la suite avec diverses améliorations. Il est cependant conçu pour s’adapter à un apprentissage en ligne et une acquisition non limitée, ni en temps ni en nombre, de nouveaux exemples par la communauté
Collective learning in multi-agent systems considers how a community of autonomous agents sharing a learning purpose may benefit from exchanging information to learn efficiently as a community as well as individuals. The community forms a communication network where each agent may accesses observations, called learning examples. This thesis is based on a former protocol, SMILE (Sound-Multi-agent-Incremental-LEarning), which sets up parsimonious examples and hypotheses exchanges between agents. In a fully connected community, this protocol guarantees an agent’s hypothesis takes into account all the examples obtained by the community. Some sequential protocols add propagation to SMILE in order to extend this consistency guarantee to other connected networks. This thesis contribution to the artificial collective learning field is two fold.First, we investigate the influence of network structures on learning in networks when communication is limited to neighbourhood without further information propagation. Second, we present and analyze a new protocol, Waves, with SMILE’s guarantees and a more dynamic learning process thanks to its execution in parallel. The evaluation of this protocol in a simple turn-based setting gives the opportunity to improve it here in multiple ways. It is however meant to be used with online learning without any restriction on the acquisition rate of new examples, neither on speed nor number
APA, Harvard, Vancouver, ISO, and other styles
48

Dromnelle, Rémi. "Architecture cognitive générique pour la coordination de stratégies d'apprentissage en robotique." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS039.

Full text
Abstract:
L’objectif principal de cette thèse est de proposer une nouvelle méthode d’adaptation en ligne de l’apprentissage robotique, permettant aux robots d’adapter dynamiquement et de manière autonome leur comportement en fonction des variations de leur propre performance. La méthode élaborée est suffisamment générale et tâche-indépendante pour qu’un robot l’utilisant puisse effectuer différentes tâches dynamiques de nature variée sans ajustement des algorithmes ou des paramètres par le programmeur. Les algorithmes qui sous-tendent cette méthode consistent en un système de méta-contrôle permettant au robot de faire appel à deux experts décisionnels suivant une stratégie comportementale différente. L’expert model-based construit un modèle des effets des actions à long-terme et utilise ce modèle pour décider ; cette stratégie est coûteuse en termes de ressources calculatoires, mais converge rapidement vers la solution. L’expert model-free est quant à lui peu coûteux en termes de ressources calculatoires, mais met du temps à converger vers la solution optimale. Dans ce travail, nous avons élaboré un nouveau critère de coordination de ces deux experts permettant au robot de changer dynamiquement de stratégie au cours du temps. Nous montrons dans ce travail que notre méthode de coordination de comportements permet au robot de maintenir une performance optimale en termes de performance et de temps de calcul. Nous montrons aussi que la méthode permet de faire face à des changements brusques de l’environnement, des changements d’objectifs ou de comportements du partenaire humain dans le cas des tâches d’interaction
The main objective of this thesis is to propose a new method for online adaptation of robotic learning, allowing robots to dynamically and autonomously adapt their behavior according to variations in their own performance. The developed method is sufficiently general and task-independent that a robot using it can perform different dynamic tasks of various nature without any algorithm or parameter adjustment by the programmer. The algorithms underlying this method consist of a meta-control system that allows the robot to call upon two decision-making experts following a different behavioral strategy. The model-based expert builds a model of the effects of long-term actions and uses this model to decide; this strategy is computationally expensive, but quickly converges to the solution. The model-free expert is inexpensive in terms of computational resources, but takes time to converge to the optimal solution. In this work, we have developed a new criterion for the coordination of these two experts allowing the robot to dynamically change its strategy over time. We show in this work that our behavior coordination method allows the robot to maintain an optimal performance in terms of performance and computation time. We also show that the method can cope with abrupt changes in the environment, changes in goals or changes in the behavior of the human partner in the case of interaction tasks
APA, Harvard, Vancouver, ISO, and other styles
49

Dupuis, Romain. "Surrogate models coupled with machine learning to approximate complex physical phenomena involving aerodynamic and aerothermal simulations." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0017/document.

Full text
Abstract:
Les simulations numériques représentent un élément central du processus de conception d’un avion complétant les tests physiques et essais en vol. Elles peuvent notamment bénéficier de méthodes innovantes, telle que l’intelligence artificielle qui se diffuse largement dans l’aviation. Simuler une mission de vol complète pour plusieurs disciplines pose d’importants problèmes à cause des coûts de calcul et des conditions d’opérations changeantes. De plus, des phénomènes complexes peuvent se produire. Par exemple, des chocs peuvent apparaître sur l’aile pour l’aérodynamique alors que le mélange entre les écoulements du moteur et de l’air extérieur impacte fortement l’aérothermie autour de la nacelle et du mât. Des modèles de substitution peuvent être utilisés pour remplacer les simulations haute-fidélité par des approximations mathématiques afin de réduire le coût de calcul et de fournir une méthode construite autour des données de simulations. Deux développements sont proposés dans cette thèse : des modèles de substitution utilisant l’apprentissage automatique pour approximer des calculs aérodynamiques et l’intégration de modèles de substitution classiques dans un processus aérothermique industriel. La première approche sépare les solutions en sous-ensembles selon leurs formes grâce à de l’apprentissage automatique. En outre, une méthode de reéchantillonnage complète la base d’entrainement en ajoutant de l’information dans des sous-ensembles spécifiques. Le deuxième développement se concentre sur le dimensionnement du mât moteur en remplaçant les simulations aérothermiques par des modèles de substitution. Ces deux développements sont appliqués sur des configurations avions afin de combler l’écart entre méthode académique et industrielle. On peut noter que des améliorations significatives en termes de coût et de précision ont été atteintes
Numerical simulations provide a key element in aircraft design process, complementing physical tests and flight tests. They could take advantage of innovative methods, such as artificial intelligence technologies spreading in aviation. Simulating the full flight mission for various disciplines pose important problems due to significant computational cost coupled to varying operating conditions. Moreover, complex physical phenomena can occur. For instance, the aerodynamic field on the wing takes different shapes and can encounter shocks, while aerothermal simulations around nacelle and pylon are sensitive to the interaction between engine flows and external flows. Surrogate models can be used to substitute expensive high-fidelitysimulations by mathematical and statistical approximations in order to reduce overall computation cost and to provide a data-driven approach. In this thesis, we propose two developments: (i) machine learning-based surrogate models capable of approximating aerodynamic experiments and (ii) integrating more classical surrogate models into industrial aerothermal process. The first approach mitigates aerodynamic issues by separating solutions with very different shapes into several subsets using machine learning algorithms. Moreover, a resampling technique takes advantage of the subdomain decomposition by adding extra information in relevant regions. The second development focuses on pylon sizing by building surrogate models substitutingaerothermal simulations. The two approaches are applied to aircraft configurations in order to bridge the gap between academic methods and real-world applications. Significant improvements are highlighted in terms of accuracy and cost gains
APA, Harvard, Vancouver, ISO, and other styles
50

Dzogang, Fabon. "Représentation et apprentissage à partir de textes pour des informations émotionnelles et pour des informations dynamiques." Paris 6, 2013. http://www.theses.fr/2013PA066253.

Full text
Abstract:
L'extraction de connaissances automatique à partir de textes consiste àmettre en correspondance une information bas niveau, extraite desdocuments au travers des mots et des groupes de mots, avec uneinformation de plus haut niveau. Les choix de représentation pourdécrire les documents sont alors essentiels et leurs particularitéscontraignent la définition de l'algorithme d'apprentissage mis enoeuvre. Les travaux de cette thèse considèrent ces deux problématiquesd'une part pour des informations émotionnelles, d'autre part pour desinformations dynamiques. Dans une première partie, nous considérons une tâche d'extraction desémotions pour laquelle le fossé sémantique est plus important que pourdes informations traditionnellement thématiques. Aussi, nous étudionsdes représentations destinées à capturer les nuances du langage pourdécrire une information subjective puisque émotionnelle. Nous étudionsde plus l'intégration de connaissances sémantiques qui permettent, dans unetâche de caractérisation, d'extraire la charge émotionnelle desdocuments, dans une tâche de prédiction de guider l'apprentissageréalisé. Dans une seconde partie, nous étudions la dynamique de l'information :à tout corpus de documents publié sur Internet peut être associé dessources en perpétuelle activité qui échangent des informations dansun mouvement continu. Nous explorons trois axes d'étude : les sourcesidentifiées, les communautés qu'elles forment dans un espace dynamiquetrès parcimonieux, et les thématiques remarquables qu'ellesdéveloppent. Pour chacun nous proposons des méthodes d'extractionoriginales que nous mettons en oeuvre sur un corpus réel collecté encontinu sur Internet
Automatic knowledge extraction from texts consists in mapping lowlevel information, as carried by the words and phrases extracted fromdocuments, to higher level information. The choice of datarepresentation for describing documents is, thus, essential and thedefinition of a learning algorithm is subject to theirspecifics. This thesis addresses these two issues in the context ofemotional information on the one hand and dynamic information on theother. In the first part, we consider the task of emotion extraction forwhich the semantic gap is wider than it is with more traditionalthematic information. Therefore, we propose to study representationsaimed at modeling the many nuances of natural language used fordescribing emotional, hence subjective, information. Furthermore, wepropose to study the integration of semantic knowledge which provides,from a characterization perspective, support for extracting theemotional content of documents and, from a prediction perspective,assistance to the learning algorithm. In the second part, we study information dynamics: any corpus ofdocuments published over the Internet can be associated to sources inperpetual activity which exchange information in a continuousmovement. We explore three main lines of work: automaticallyidentified sources; the communities they form in a dynamic and verysparse description space; and the noteworthy themes they develop. Foreach we propose original extraction methods which we apply to a corpusof real data we have collected from information streams over the Internet
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography