Dissertations / Theses on the topic 'Contrôle prédictif basé sur le modèle'

To see the other types of publications on this topic, follow the link: Contrôle prédictif basé sur le modèle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 17 dissertations / theses for your research on the topic 'Contrôle prédictif basé sur le modèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Guyot, Dimitri. "Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Full text
Abstract:
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
APA, Harvard, Vancouver, ISO, and other styles
2

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Full text
Abstract:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
APA, Harvard, Vancouver, ISO, and other styles
3

Ranjbar, Gigasari Roza. "Model Predictive Controller for large-scale systems - Application to water networks." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Lille Douai, 2024. http://www.theses.fr/2024MTLD0002.

Full text
Abstract:
Cette thèse aborde le défi de l’optimisation de la gestion des ressources en eau au sein des canaux. Il s’agit d’une tâche particulièrement complexe en raison de leur échelle étendue et de la nature diverse de leurs composants, mais également de leurs dynamiques complexes caractérisées par des retards importants et parfois des pentes nulles. En ce qui concerne les réseaux de voies navigables, l’objectif principal est de mettre en œuvre des techniques issues de la théorie du Contrôle afin d’assurer la navigabilité du réseau, garantissant le respect des niveaux d’eau pour la navigation. Plus précisément, les niveaux d’eau doivent demeurer dans une plage prédéfinie autour d’un point de consigne. D’autres objectifs visent en la réduction des coûts opérationnels et l’amélioration de la durabilité des équipements. A cet égard, une alternative dans la gestion de tels réseaux est de remplacer les capteurs le long des canaux par un robot mobile qui effectue les mesures requises en se déplaçant, limitant l’ensemble des tâches de déploiement et de maintenance des capteurs et des systèmes de transmission de l’information. Pour parvenir à une gestion efficiente, il est impératif de garantir un contrôle efficace des structures hydrauliques telles que les vannes, les pompes et les écluses tout en limitant leur utilisation. A cette fin, un algorithme de contrôle est introduit, basé sur un modèle existant dérivé des équations de Saint-Venant. Le modèle simplifié offre une facilité d’intégration des informations actuelles et retardées du système dynamique en simplifiant sa complexité originale. L’utilisation de ce modèle nécessite cependant certaines extensions aux outils standards de contrôle et d’estimation d’état standard. Des méthodes de contrôle prédictif, de type MPC, et des méthodes d’estimation de l’état du système, de type MHE, sont adaptées à ce modèle. Elles permettent de considérer les contraintes physiques et opérationnelles des canaux contrôlés. Le MPC centralisé offre une résilience grâce à son couplage avec la technique MHE. Sa nature déterministe limite cependant sa capacité à aborder systématiquement les incertitudes. Pour relever efficacement ces incertitudes, la mise en œuvre du MPC stochastique (SMPC) a ensuite été proposée. Le SMPC intègre des descriptions probabilistes dans la conception du contrôle, offrant une approche tenant compte des incertitudes. Dans ce contexte d’études, le SMPC est interconnecté avec un robot mobile dont l’usage vise à limiter le nombre de capteurs répartis le long du canal. Par conséquent, une partie de cette thèse se concentre sur la conception du SMPC en intégrant un robot mobile. Cette approche a été appliquée à un canal de test ASCE pour en évaluer l’efficacité. Compte tenu de la nature étendu et de la complexité des interactions des canaux avec leur environnement, une conception d’un jumeau numérique a été entreprise avec pour objectifs de répondre aux besoins d’outils d’analyse avancée de leur gestion. En exploitant les capacités des jumeaux numériques, nous avons cherché à améliorer notre compréhension des dynamiques des canaux, en considérant des scénarios passés, mais également à projeter les avantages de nouvelles stratégies de gestion et de contrôle. Cette évaluation vise à combler le fossé entre la théorie et la mise en œuvre pratique, offrant un moyen tangible de rejouer les événements passés, de tester diverses approches de gestion et, finalement, de proposer aux gestionnaires des outils et des critères conduisant à une gestion efficace des réseaux hydrographiques. Les méthodologies présentées dans cette thèse sont appliquées à un cas réel, un canal situé dans la région des Hauts de France, avec l’objectif de tester et de valider leur efficacité dans un contexte réel
This thesis addresses the challenge of optimizing the management of canals, a complex task due to their extensive scale and distinctive attributes, including intricate dynamics, considerable time delays, and minimal bottom slopes. Specifically, the central goal is to ensure the navigability of the network, which involves maintaining safe water levels for vessel travel, through control theory. More precisely, the water levels must remain within a predefined range around a setpoint. Additionally, typical aims encompass reducing operational costs and enhancing the equipment’s life expectancy. In this regard, another objective in the management of such networks is replacing the possible sensors across canals by applying a moving robot to take the required measurements. To accomplish effective management, it becomes imperative to ensure efficient control over hydraulic structures such as gates, pumps, and locks. To this end, a control algorithm is introduced based on an existing model derived from the Saint-Venant equations. The modeling approach simplified the original complex description providing adaptability and facilitating the systematic integration of both current and delayed information. However, the resulting model formulation falls within the category of delayed descriptor systems, necessitating extensions to standard control and state estimation tools. Model predictive control and moving horizon estimation methods can be readily tailored for this formulation, while also adapting physical and operational constraints seamlessly. Given the extensive nature of canals, an evaluation of the digital twin was untaken to address the critical need for advanced tools in the management of such networks. By harnessing the capabilities of digital twins, we aimed to enhance our understanding of canal dynamics, past scenarios, and management strategies. This evaluation sought to bridge the gap between theory and practical implementation, offering a tangible means to playback past events, test diverse management approaches, and ultimately equip decision-makers with robust criteria for informed and effective network management.The methodologies presented above are applied to a practical case study, a canal in the northern region of France. The objective is to validate the efficacy of these approaches in a real-world context.While centralized MPC provides resilience through its receding-horizon approach, its deterministic nature limits its ability to systematically address uncertainties. To effectively tackle these system uncertainties, the implementation of Stochastic MPC (SMPC) has been adopted. SMPC integrates probabilistic descriptions into control design, offering a methodical approach to accommodating uncertainties. In this context, the application of SMPC is interconnected with a mobile robot aimed at replacing existing sensors along the canal to capture measurements. Consequently, a part of this thesis focuses on the design of SMPC in conjunction with a mobile robot. This approach has been applied to an ASCE Test canal to evaluate its effectiveness
APA, Harvard, Vancouver, ISO, and other styles
4

Maurice, François. "Un modèle d'évaluation et d'amélioration d'entités logicielles basé sur l'utilisation de métriques." Toulouse 3, 1996. http://www.theses.fr/1996TOU30192.

Full text
Abstract:
L'augmentation de la duree du developpement, de la complexite et de la criticite des taches a automatiser pour la realisation de logiciels a rendu de plus en plus difficile la satisfaction de leur qualite. De ce constat est ne le besoin de mesurer les produits logiciels afin de comprendre comment leurs aspects internes (tels que la taille, le couplage ou encore la complexite) nuisent a leur qualite externe telle que leur fiabilite, leur maintenabilite ou leur productivite, et ce afin de pouvoir prendre les decisions pour les ameliorer. De nombreuses metriques ont ete definies mais un manque de rigueur dans leur definition et leur application n'a pas permis d'obtenir les resultats escomptes dans l'amelioration des logiciels. La definition des metriques manque souvent de precisions sur ce qui est mesure, empechant ainsi leur critique et leur reutilisation de maniere efficace. De plus, leur definition ne s'insere pas dans une demarche coherente prenant en compte un but initial. L'application des metriques, qui se refere a l'utilisation des techniques statistiques aux valeurs fournies par les metriques, est trop souvent bafouee. Les caracteristiques des donnees collectees sont peu souvent prises en compte pour le choix des techniques statistiques impliquant ainsi une interpretation des resultats qui entraine des prises de decision d'amelioration inadequates aux problemes rencontres. Nous presentons une demarche permettant l'evaluation d'attributs internes et externes d'entites logicielles du type produit, processus ou ressource. Cette demarche utilise et renforce le paradigme defini par la methode ami. Ce processus permet, etape par etape, de suivre le deroulement d'une activite de mesurage coherente et pertinente pour l'amelioration des artefacts logiciels. Il comprend quatre etapes principales: la definition du but d'amelioration qui est raffine en sous-buts puis en questions, la specification des metriques permettant de repondre a ces questions et ainsi d'aider a la realisation du but initial, la verification de la specification de chaque metrique et la determination du type d'echelle qu'elles permettent de definir, et enfin leur validation pour verifier leur caractere predictif envers une metrique qui evalue un attribut externe de la qualite. Un lien significatif entre un ensemble de metriques evaluant des attributs internes et une metrique evaluant un attribut externe est une condition necessaire a l'amelioration des logiciels. Cela permet de modifier ou de calibrer les attributs internes d'un logiciel en cours de developpement afin d'ameliorer un aspect de sa qualite externe
APA, Harvard, Vancouver, ISO, and other styles
5

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00769076.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC.
APA, Harvard, Vancouver, ISO, and other styles
6

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0181.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC
Nowadays, information technologies provide users ability to work with anyone, at any time, from everywhere and with several heterogeneous devices. This evolution fosters a new distributed trustworthy collaboration model where users can work on shared documents with whom they trust. Multi-synchronous collaboration is widely used for supporting collaborative work by maintaining simultaneous streams of user activities which continually diverge and converge. However, this model lacks support on how usage restrictions on data can be expressed and checked within the model. This thesis proposes "C-PPC", a multi-synchronous contract-based and trust-aware collaboration model. In this model, contracts are used as usage rules and users collaborate according to trust levels they have on others computed according to contract compliance. We formalize contracts by using deontic concepts: permission, obligation and prohibition. Contracts are enclosed in logs of operations over shared data. The C-PPC model provides a mechanism for merging data changes and contracts. Any user can audit logs at any time and auditing results are used to update user trust levels based on a trust metric. We propose a solution relying on hash-chain based authenticators that ensures integrity of logs and user accountability. We provide algorithms for constructing authenticators and verifying logs and prove their correctness. A set of experimental results shows the feasibility of the C-PPC model
APA, Harvard, Vancouver, ISO, and other styles
7

Huafeng, Yu. "Un Modèle Réactif Basé sur MARTE Dédié au Calcul Intensif à Parallélisme de Données : Transformation vers le Modèle Synchrone." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00497248.

Full text
Abstract:

Les travaux de cette thèse s'inscrivent dans le cadre de la validation formelle et le contrôle réactif de calculs à haute performance sur systèmes-sur-puce (SoC).

Dans ce contexte, la première contribution est la modélisation synchrone accompagnée d'une transformation d'applications en équations synchrones. Les modéles synchrones permettent de résoudre plusieurs questions liées à la validation formelle via l'usage des outils et techniques formels offerts par la technologie synchrone. Les transformations sont développées selon l'approche d'Ingénierie Dirigé par les Modèles (IDM).

La deuxième contribution est une extension et amélioration des mécanismes de contrôle pour les calculs à haute performance, sous forme de constructeurs de langage de haut-niveau et de leur sémantique. Ils ont été défini afin de permettre la vérification, synthèse et génération de code. Il s'agit de déterminer un niveau d'abstraction de représentation des systèmes où soit extraite la partie contrôle, et de la modéliser sous forme d'automates à états finis. Ceci permet de spécifier et implémenter des changements de modes de calculs, qui se distinguent par exemple par les ressources utilisées, la qualité de service fournie, ou le choix d'algorithme remplissant une fonctionnalité.

Ces contributions permettent l'utilisation d'outils d'analyse et vérification, tels que la vérification de propriétés d'assignement unique et dépendance acyclique, model checking. L'utilisation de techniques de synthèse de contrôleurs discrets est également traitée. Elles peuvent assurer la correction de faˆ on constructive: à partir d'une spécification partielle du contrôle, la partie manquante pour que les propriétés soient satisfaites est calculée. Grâce à ces techniques, lors du développement de la partie contrôle, la spécification est simplifiée, et le résultat est assuré d'être correct par construction.

Les modélisations synchrone et de contrôle reposes sur MARTE et UML. Les travaux de cette thèse sont été partiellement implémentés dans le cadre de Gaspard, dédié aux applications de traitement de données intensives. Une étude de cas est présentée, dans laquelle nous nous intéressont à une application de système embarqué pour téléphone portable multimédia.

APA, Harvard, Vancouver, ISO, and other styles
8

Thibault, Robert. "Contrôle de l'énergie injectée dans un réseau électrique par un convertisseur triphasé utilisant un régulateur basé sur un modèle interne sinusoïdal." Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/511/1/THIBAULT_Robert.pdf.

Full text
Abstract:
Ce mémoire traite de la commande du convertisseur en source de tension à MLI triphasé connecté au réseau. La structure de commande est basée sur une boucle interne et une boucle externe. La boucle interne commande le transfert de la puissance entre le lien du bus continu et le réseau. La boucle externe fournit le courant de référence à la boucle interne et est conçue pour maintenir la tension du bus continu constante. Avec la commande vectorielle, il est possible de fournir des courants quasi-sinusoïdaux au réseau avec un facteur de puissance unitaire. Les tensions et les courants sont transformés dans un système de référence en rotation d-q, où la commande devient beaucoup plus aisée. Puisque le vecteur spatial de courant dans le système de coordonnées synchrone d-q est fixe, les contrôleurs PI opèrent sur des signaux continus, plutôt que sur des signaux sinusoïdaux. En régime permanent, les vecteurs de courant c.a. apparaissent comme des constantes dans le système de référence synchrone donc, les erreurs statiques peuvent être annulées par l'utilisation de contrôleurs PI conventionnels. L'inconvénient des structures classiques de contrôle est la difficulté de commander des variables avec des références sinusoïdales en raison des capacités limitées des contrôleurs PI à suivre exactement des entrées variables dans le temps. Ce mémoire propose une stratégie de commande plus simple, mais d'autre part équivalente, qui résout ce problème sans la difficulté de transformer des quantités triphasées dépendantes du temps dans le système de référence d-q invariant dans le temps et vice versa. Cette nouvelle structure de commande est basée sur un contrôleur complexe (c'est-à-dire avec parties réelles et imaginaires) qui réalise une erreur nulle en régime permanent en commandant le vecteur spatial de courant directement dans le système de référence stationnaire d-q. L'équivalence mathématique avec la commande vectorielle est entièrement démontrée. Il s'avère que les gains du nouveau régulateur complexe sont exactement identiques à ceux du contrôleur PI conventionnel. On présente des résultats de simulation qui montrent clairement l'équivalence des deux systèmes de commande. Des résultats expérimentaux en régime permanent et en régime transitoire sont également présentés.
APA, Harvard, Vancouver, ISO, and other styles
9

Geveaux, Emmanuel. "Conception d'un environnement de développement des applications de contrôle de procédé basé sur le modèle formel GRAFCET et fondé sur un langage graphique flot de données." Poitiers, 1998. http://www.theses.fr/1998POIT2298.

Full text
Abstract:
Ce travail presente un environnement de developpement d'applications de controle/commande de procede, base sur le modele grafcet, et implemente grace a un langage graphique flot de donnees, labview. L'utilisation d'un langage flot de donnees a permis une programmation parallele simple et naturelle mais a necessite le developpement d'outils de cooperation entre diagrammes flots de donnees concurrents. Le choix du modele grafcet, outil de specification largement utilise dans le monde de l'automatisme, permet un passage aise vers l'implementation. Ce choix a demande la mise en place d'une methode de transformation de graphes cycliques en graphes acycliques afin de pouvoir utiliser l'editeur graphique de labview pour saisir un grafcet. Le developpement d'une application dans cet environnement se fait en deux phases : une phase d'edition du grafcet de commande puis une phase d'integration et d'execution ou le modele edite est compile afin de realiser le controle du systeme que l'on souhaite piloter. Cette phase d'integration et d'execution est realisee a partir de modules canevas offrant une architecture parallele d'application ou l'utilisation des outils de cooperations entre diagrammes flots de donnees concurrents s'est averee utile et efficace.
APA, Harvard, Vancouver, ISO, and other styles
10

Yassuda, Yamashita Damiela. "Hierarchical Control for Building Microgrids." Thesis, Poitiers, 2021. http://www.theses.fr/2021POIT2267.

Full text
Abstract:
Représentant plus d'un tiers de la consommation mondiale d'électricité, les bâtiments sont le secteur énergétique majeur pour promouvoir l’usage des énergies renouvelables. L'installation à la fois de sources d’énergie rénouvelable et d'un système de stockage d'énergie électrique dans les bâtiments peut favoriser la transition énergétique vers un système électrique à faible émission de carbone, tout en permettant aux consommateurs d'énergie finaux de bénéficier d'une énergie propre. Malgré tous ces avantages, cette topologie innovante et distribuée d’un Micro-réseau dédié au Bâtiment (MB)nécessite des changements importants dans le réseau actuel, qui dépend des politiques énergétiques et d’avancement technologiques.La conception d'un Système de Gestion de l'Energie (EMS) capable de gérer efficacement les composants électriques du micro-réseau sans menacer la stabilité du réseau principal est un obstacle au développement des MB. Pour atténuer les effets néfastes introduits par des acteurs d’énergie imprévisibles, le concept d'autoconsommation est de plus en plus adopté. Néanmoins, une analyse technico-économique plus approfondie est nécessaire pour piloter d’une manière optimaledes systèmes de stockage d'énergie afin d’atteindre des indices d'autoconsommation plus élevés.Face à ces enjeux, le but de ce doctorat est de proposer un EMS pour les micro-réseaux installés dans les bâtiments afin de maximiser leur taux d’autoconsommation à un coût d’exploitation minimum. Parmi les architectures de contrôle, la structure hiérarchique s'est avérée efficace pour gérer des objectifs contradictoires qui ne sont pas dans la même échelle de temps. Ainsi, une structure de contrôle Hiérarchique à Modèle Prédictif (HMPC) a été adoptée pour remédier aux incertitudes liées aux déséquilibres de puissance ainsi qu’établir un compromis entre la réduction du coût de fonctionnement et le respect du code de l’énergie français.Considérant que les bâtiments ne sont pas homogènes et nécessitent des solutions adaptées à leur besoin, le contrôleur proposé a été couplé à deux modules fonctionnant à base d’analyse de données. Le premier algorithme consiste à gérer les inexactitudes dans les modèles internes de l’HMPC. Sans avoir besoin de régler aucun paramètre, cet algorithme améliore la précision du modèle de batteries jusqu'à trois fois et augmente jusqu'à dix fois la précision du modèle de stockage d'hydrogène, réduisant ainsi la dépendance de l’EMS aux étapes de modélisation. Le deuxième algorithme détermine de manière autonome les paramètres de l’HMPC et facilite le compromis entre les aspects économiques et énergétiques. S'appuyant uniquement sur l'analyse des données de déséquilibre de puissance et des mesures, le contrôleur hiérarchique spécifie quel dispositif de stockage d'énergie doit fonctionner quotidiennement en fonction de l'estimation du taux d'autoconsommation et du coût de fonctionnement du micro-réseau. Ces estimations diminuent les dépenses annuelles du micro-réseau en évitant la pénalisation en ce qui concerne les exigences d'autoconsommation et en réduisant la dégradation et l'entretien des systèmes de stockage d'énergie.L’EMS proposé s'est également révélé capable de charger de préférence les batteries des véhicules électriques en période de surplus d’énergie et les décharger pendant les périodes de déficit pour réduire les échanges d’énergie avec le réseau principal. Les résultats ont aussi montré que la contribution des batteries de véhicules électriques dépend de la taille du parc de véhicules, de leur temps de connexion et du profil de déséquilibre de puissance. En conclusion, à travers les simulations utilisant le dimensionnement réel d'un bâtiment public et résidentiel, l’EMS hiérarchique s'est avéré efficace pour gérer de nombreux dispositifs de stockage d'énergie et contribuer à l’essor de micro-réseaux dédiés aux bâtiments à l’avenir
Representing more than one-third of global electricity consumption, buildings undergo the most important sector capable of reducing greenhouse gas emissions and promote the share of Renewable Energy Sources (RES). The integrated RES and electric energy storage system in buildings can assist the energy transition toward a low-carbon electricity system while allowing end-energy consumers to benefit from clean energy. Despite its valuable advantages, this innovative distributed Building Microgrids (BM) topology requires significant changes in the current electric grid, which is highly dependent on grid energy policies and technology breakthroughs.The complexity of designing a robust Energy Management System (EMS) capable of managing all electric components inside the microgrid efficiently without harming the main grid stability is one of the greatest challenge in the development of BM. To mitigate the harmful effects of unpredictable grid actors, the concept of self-consumption has been increasingly adopted. Nonetheless, further technical-economic analysis is needed to optimally manage the energy storage systems to attain higher marks of self-consumption.Faceing these issues, the purpose of this doctoral thesis is to propose a complete framework for designing a building EMS for microgrids installed in buildings capable of maximising the self-consumption rate at minimum operating cost. Among all possible control architectures, the hierarchical structure has proved effective to handle conflicting goals that are not in the same timeframe. Hence, a Hierarchical Model Predictive (HMPC) control structure was adopted to address the uncertainties in the power imbalance as well as the trade-off between costs and compliance with the French grid code.Considering that buildings are not homogeneous and require solutions tailored to their specific conditions, the proposed controller was enhanced by two data-driven modules. The first data-driven algorithm is to handle inaccuracies in HMPC internal models. Without needing to tune any parameter, this algorithm can enhance the accuracy of the battery model up to three times and improve up to ten times the precision of the hydrogen storage model. This makes the building EMS more flexible and less dependent on pre-modelling steps.The second data-oriented algorithm determines autonomously adequate parameters to HMPC to relieve the trade-off between economic and energy aspects. Relying only on power imbalance data analysis and local measurements, the proposed hierarchical controller determines which energy storage device must run daily based on the estimation of the annual self-consumption rate and the annual microgrid operating cost. These estimations decrease microgrid expenditure because it avoids grid penalties regarding the requirements of annual self-consumption and reduces the degradation and maintenance of energy storage devices.The proposed EMS also demonstrated being capable of exploiting the potentials of shifting in time the charging of batteries of plug-in electric vehicles. The simulation confirmed that the proposed controller preferably charges electric vehicles’ batteries at periods of energy surplus and discharges them during periods of energy deficit, leading the building microgrid to reduce grid energy exchange. The results also showed that electric vehicle batteries' contribution depends on the size of the vehicle parking, their arrival and departure time, and the building’s net power imbalance profile. In conclusion, through simulations using the dataset of both public and residential buildings, the proposed hierarchical building EMS proved its effectiveness to handle different kinds of energy storage devices and foster the development of forthcoming building microgrids
APA, Harvard, Vancouver, ISO, and other styles
11

Ghassemi, Elham. "Modèle computationnel du contrôle auto-adaptatif cérébelleux basé sur la Logique Floue appliqué aux mouvements binoculaires : déficit de la coordination binoculaire de la saccade horizontale chez l’enfant dyslexique." Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05L001.

Full text
Abstract:
Ce travail de thèse porte essentiellement sur le cervelet. Nous y suivons deux axes majeurs : en termes de fonctions cérébelleuses, nous nous intéressons à l’apprentissage et l’adaptation du contrôle moteur ; en termes de dysfonctions cérébelleuses, nous nous intéressons à la dyslexie développementale.Nous nous orientons vers l’apprentissage du contrôle moteur afin d’en proposer un modèle computationnel fonctionnel appliqué aux mouvements oculaires volontaires. Pour ce faire, la Logique Floue est un de nos outils précieux. Nous avons proposé deux modèles. Le premier, AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), le résultat de l’intégration de la Logique Floue dans l’architecture de CMAC (Cerebellar Model Articulation Controller), est pourvu d’améliorer la vitesse/durée d’apprentissage et le besoin en termes de mémoire par rapport à CMAC. Le second modèle est CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), dont sa structure est également basée sur la Logique Floue, et dans lequel, le réseau de neurones est utilisé comme la mémoire pour gérer les règles Floues. Les résultats des évaluations des modèles proposés (AFCMAC et CMORG) et étudiés (CMAC et FCMAC – Fuzzy Cerebellar Model Articulation Controller), via les données oculomotrices des groupes d’enfants dyslexiques et contrôles lors de la lecture, montrent que CMORG est le plus performant à la fois, en termes de vitesse/durée d’apprentissage et également, de consommation de mémoire. Un autre avantage principal de CMORG par rapport aux autres modèles, est son interprétabilité par les experts.Concernant la dyslexie développementale, nous avons mené une étude expérimentale sur les déficits du contrôle moteur binoculaire lors des saccades des six enfants dyslexiques pendant les deux tâches différentes (la lecture d’un texte et la visualisation des chaînes de caractères) et dans les deux distances de vision (40 cm et 100 cm). Nous corroborons et adhérons à l’idée que la (mauvaise) qualité de la coordination binoculaire des saccades chez les enfants dyslexiques est indépendante des difficultés en lecture, associée peut-être aux hypothèses du déficit du magnosystème et du dysfonctionnement cérébelleux
This thesis focuses on the cerebellum. We follow two main lines: in terms of cerebellar functions, we are interested in learning and adaptation motor control ; in terms of cerebellar dysfunctions, we are interested in developmental dyslexia.We focus on learning motor control in order to provide a functional computational model applied to voluntary eye movements. To this end, Fuzzy Logic is one of our valuable tools. We proposed two models. The former is AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), the result of the integration of Fuzzy Logic in CMAC (Cerebellar Model Articulation Controller) architecture, in order to improve learning speed/time and memory requirements compared to the CMAC. The latter is CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), whose structure is also based on Fuzzy Logic, and in which, the neural network is used as the memory to handle Fuzzy rules. The evaluation results of the proposed (AFCMAC and CMORG) and studied (CMAC and FCMAC – Fuzzy Cerebellar Model Articulation Controller) models via oculomotor data of dyslexic and control groups while reading show that CMORG is the most efficient both in terms of learning speed/time and also memory consumption. Another main advantage of CMORG over the other models is its interpretability by experts. Regarding the developmental dyslexia, we conducted an experimental study on binocular motor control deficits during saccades in six dyslexic children while two different tasks (text reading and character string scanning) and in two viewing distances (40 cm and 100 cm). We corroborate and adhere to the idea that the (bad) quality of binocular coordination of saccades in dyslexic children is independent of reading difficulties, maybe associated with magnosystem and cerebellar deficit hypothesis
APA, Harvard, Vancouver, ISO, and other styles
12

Blagouchine, Iaroslav. "Modélisation et analyse de la parole : Contrôle d’un robot parlant via un modèle interne optimal basé sur les réseaux de neurones artificiels. Outils statistiques en analyse de la parole." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX26666.

Full text
Abstract:
Cette thèse de doctorat traite les aspects de la modélisation et de l'analyse de la parole, regroupés sous le chapeau commun de la qualité. Le premier aspect est représenté par le développement d'un modèle interne de contrôle de la production de la parole ; le deuxième, par le développement des outils pour son analyse. Un modèle interne optimal sous contraintes est proposé pour le contrôle d'un robot parlant, basé sur l'hypothèse du point d'équilibre (EPH, modèle-lambda). Ce modèle interne se repose sur le principe suivant : les mouvements du robot sont produits de telle façon que la longueur du chemin, parcouru dans l'espace interne des commandes motrices lambda, soit minimale, sous certaines contraintes liées à l'espace externe. L'aspect mathématique du problème conduit au problème géodésique généralisé, un problème relevant du calcul variationnel, dont la solution exacte analytique est assez complexe. En utilisant certains résultats empiriques, une solution approximative est enfin développée et implémentée. La solution du problème donne des résultats intéressants et prometteurs, et montre que le modèle interne proposé permet d'atteindre une certaine réalité de la production de la parole ; notamment, des similitudes entre la parole réelle et celle produite par le robot sont constatées. Puis, dans un but d'analyser et de caractériser le signal de parole, plusieurs méthodes d'analyse statistique sont développées. Elles sont basées sur les statistiques d'ordre supérieurs et sur l'entropie discrète normalisée. Dans ce cadre, nous avons également élaboré un estimateur non-biaisée et efficace du cumulant d'ordre quatre, en deux versions bloc et adaptative
This Ph.D. dissertation deals with speech modeling and processing, which both share the speech quality aspect. An optimum internal model with constraints is proposed and discussed for the control of a biomechanical speech robot based on the equilibrium point hypothesis (EPH, lambda-model). It is supposed that the robot internal space is composed of the motor commands lambda of the equilibrium point hypothesis. The main idea of the work is that the robot movements, and in particular the robot speech production, are carried out in such a way that, the length of the path, traveled in the internal space, is minimized under acoustical and mechanical constraints. Mathematical aspect of the problem leads to one of the problems of variational calculus, the so-called geodesic problem, whose exact analytical solution is quite complicated. By using some empirical findings, an approximate solution for the proposed optimum internal model is then developed and implemented. It gives interesting and challenging results, and shows that the proposed internal model is quite realistic; namely, some similarities are found between the robot speech and the real one. Next, by aiming to analyze speech signals, several methods of statistical speech signal processing are developed. They are based on higher-order statistics (namely, on normalized central moments and on the fourth-order cumulant), as well as on the discrete normalized entropy. In this framework, we also designed an unbiased and efficient estimator of the fourth-order cumulant in both batch and adaptive versions
APA, Harvard, Vancouver, ISO, and other styles
13

Qian, Jun. "Identification paramétrique en boucle fermée par une commande optimale basée sur l’analyse d’observabilité." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10113/document.

Full text
Abstract:
Dans un objectif conjoint d'identification paramétrique en ligne, les méthodes développées dans cette thèse permettent de concevoir en ligne et en boucle fermée les entrées optimales qui enrichissent les informations contenues dans l'expérience en cours. Ces méthodes reposent sur des mesures en temps réel du procédé, sur un modèle dynamique non linéaire (ou linéaire) multi-variable choisi du procédé, sur un modèle de sensibilité des mesures par rapport aux paramètres à estimer et sur un observateur non linéaire. L'analyse de l'observabilité et des techniques de commande prédictive permettent de définir la commande optimale qui est déterminée en ligne par optimisation sous contraintes. Des aspects de stabilisation sont également étudiés (via un apport de contraintes fictives ou via une technique de Lyapunov). Enfin, une loi de commande explicite pour le cas particulier du système d'ordre un est développée. Des exemples illustratifs sont traités via le logiciel ODOE4OPE : un bioréacteur, un réacteur continu parfaitement agité et une aile delta. Ces exemples permettent de voir que l'estimation des paramètres peut être réalisée avec une bonne précision, et à moindre coût expérimental en une expérience
For online parameter identification, the developed methods here allow to design online and in closed loop optimal inputs that enrich the information in the current experience. These methods are based on real-time measurements of the process, on a dynamic nonlinear (or linear) multi-variable model, on a sensitivity model of measurements with respect to the parameters to be estimated and a nonlinear observer. Analysis of observability and predictive control techniques are used to define the optimal control which is determined online by constrained optimization. Stabilization aspects are also studied (by adding fictitious constraints or by a Lyapunov technique). Finally, for the particular case of a first order linear system, the explicit control law is developed. Illustrative examples are processed via the ODOE4OPE software : a bio-reactor, a continuous stirred tank reactor and a delta wing. These examples help to see that the parameter estimation can be performed with good accuracy in a single and less costly experiment
APA, Harvard, Vancouver, ISO, and other styles
14

Kovaltchouk, Thibaut. "Contributions à la co-optimisation contrôle-dimensionnement sur cycle de vie sous contrainte réseau des houlogénérateurs directs." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0033/document.

Full text
Abstract:
Les Energies Marines Renouvelables (EMR) se développent aujourd’hui très vite tant au niveau de la recherche amont que de la R&D, et même des premiers démonstrateurs à la mer. Parmi ces EMR, l'énergie des vagues présente un potentiel particulièrement intéressant. Avec une ressource annuelle brute moyenne estimée à 40 kW/m au large de la côte atlantique, le littoral français est plutôt bien exposé. Mais l’exploitation à grande échelle de cette énergie renouvelable ne sera réalisable et pertinente qu'à condition d'une bonne intégration au réseau électrique (qualité) ainsi que d'une gestion et d'un dimensionnement optimisé au sens du coût sur cycle de vie. Une première solution de génération tout électrique pour un houlogénérateur a d’abord été évaluée dans le cadre de la thèse de Marie RUELLAN menée sur le site de Bretagne du laboratoire SATIE (ENS de Cachan). Ces travaux ont mis en évidence le potentiel de viabilité économique de cette chaîne de conversion et ont permis de poser la question du dimensionnement de l’ensemble convertisseur-machine et de soulever les problèmes associés à la qualité de l’énergie produite. Puis une seconde thèse a été menée par Judicaël AUBRY dans la même équipe de recherche. Elle a consisté, entre autres, en l’étude d’une première solution de traitement des fluctuations de la puissance basée sur un système de stockage par supercondensateurs. Une méthodologie de dimensionnement de l’ensemble convertisseur-machine et de gestion de l’énergie stockée fut également élaborée, mais en découplant le dimensionnement et la gestion de la production d’énergie et de ceux de son système de stockage. Le doctorant devra donc : 1. S’approprier les travaux antérieurs réalisés dans le domaine de la récupération de l’énergie des vagues ainsi que les modèles hydrodynamiques et mécaniques réalisés par notre partenaire : le LHEEA de l’Ecole Centrale de Nantes - 2. Résoudre le problème du couplage entre dimensionnement/gestion de la chaîne de conversion et dimensionnement/gestion du système de stockage. 3. Participer à la réalisation d’un banc test à échelle réduite de la chaine électrique et valider expérimentalement les modèles énergétiques du stockage et des convertisseurs statiques associés - 4. Proposer une méthodologie de dimensionnement de la chaine électrique intégrant le stockage et les lois de contrôle préalablement élaborées 5. Déterminer les gains en termes de capacités de stockage obtenus grâce à la mutualisation de la production (parc de machines) et évaluer l’intérêt d’un stockage centralisé - 6. Analyser l’impact sur le réseau d’une production houlogénérée selon divers scenarii, modèles et outils développés par tous les partenaires dans le cadre du projet QUALIPHE. L’exemple traité sera celui de l’Ile d’Yeu (en collaboration avec le SyDEV
The work of this PhD thesis deals with the minimization of the per-kWh cost of direct-drive wave energy converter, crucial to the economic feasibility of this technology. Despite the simplicity of such a chain (that should provide a better reliability compared to indirect chain), the conversion principle uses an oscillating system (a heaving buoy for example) that induces significant power fluctuations on the production. Without precautions, such fluctuations can lead to: a low global efficiency, an accelerated aging of the fragile electrical components and a failure to respect power quality constraints. To solve these issues, we firstly study the optimization of the direct drive wave energy converter control in order to increase the global energy efficiency (from wave to grid), considering conversion losses and the limit s from the sizing of an electrical chain (maximum force and power). The results point out the effect of the prediction horizon or the mechanical energy into the objective function. Production profiles allow the study of the flicker constraint (due to grid voltage fluctuations) linked notably to the grid characteristics at the connection point. Other models have also been developed to quantify the aging of the most fragile and highly stressed components, namely the energy storage system used for power smoothing (with super capacitors or electrochemical batteries Li-ion) and power semiconductors.Finally, these aging models are used to optimize key design parameters using life-cycle analysis. Moreover, the sizing of the storage system is co-optimized with the smoothing management
APA, Harvard, Vancouver, ISO, and other styles
15

Sandoval, Moreno John Anderson. "Contribution à la coordination de commandes MPC pour systèmes distribués appliquée à la production d'énergie." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT092/document.

Full text
Abstract:
Cette thèse porte principalement sur la coordination des systèmes distribués, avec une attention particulière pour les systèmes de production d'électricité multi-énergiques. Aux fins de l'optimalité, ainsi que l'application des contraintes, la commande prédictive (MPC-Model Predictive Control) est choisi comme l'outil sous-jacent, tandis que les éoliennes, piles à combustible, panneaux photovoltaïques et les centrales hydroélectriques sont considérés comme les sources d'énergie a être contrôlées et coordonnées. En premier lieu, une application de la commande MPC dans un microréseau électrique est proposée, illustrant comment assurer une performance appropriée pour chaque unité de génération et de soutien. Dans ce contexte, une attention particulière est accordée à la production de puissance maximale par une éolienne, en prenant une commande basée sur un observateur quand la mesure de la vitesse du vent est disponible. Ensuite, les principes de contrôle distribué coordonnés, en considérant une formulation à base de la commande MPC, sont pris en considération pour le contexte des systèmes à grande taille. Ici, une nouvelle approche pour la coordination par prix avec des contraintes est proposée pour la gestion des contrôleurs MPC locaux, chacun d'eux étant typiquement associé à une unité de génération. En outre, le calcule des espace invariants a été utilisé pour l'analyse de la performance pour le système à boucle fermée, à la fois pour les schémas MPC centralisée et coordination par prix. Finalement, deux cas d'études dans le contexte des systèmes de génération d'électricité sont inclus, en illustrant la pertinence de la stratégie de commande coordonnée proposée
This thesis is mainly about coordination of distributed systems, with a special attention to multi-energy electric power generation ones. For purposes of optimality, as well as constraint enforcement, Model Predictive Control (MPC) is chosen as the underlying tool, while wind turbines, fuel cells, photovoltaic panels, and hydroelectric plants are mostly considered as power sources to be controlled and coordinated. In the first place, an application of MPC to a micro-grid system is proposed, illustrating how to ensure appropriate performance for each generator and support units. In this context, a special attention is paid to the maximum power production by a wind turbine, via an original observer-based control when no wind speed measurement is available. Then, the principles of distributed-coordinated control, when considering an MPC-based formulation, are considered for the context of larger scale systems. Here, a new approach for price-driven coordination with constraints is proposed for the management of local MPC controllers, each of them being associated to one power generation unit typically. In addition, the computation of invariant sets is used for the performance analysis of the closed- loop control system, for both centralized MPC and price-driven coordination schemes. Finally, a couple of case studies in the field of power generation systems is included, illustrating the relevance of the proposed coordination control strategy
APA, Harvard, Vancouver, ISO, and other styles
16

Zhao, Zilong. "Extracting knowledge from macroeconomic data, images and unreliable data." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT074.

Full text
Abstract:
L'identification de système et l'apprentissage automatique sont deux concepts similaires utilisés indépendamment dans la communauté automatique et informatique. L'identification des systèmes construit des modèles à partir de données mesurées. Les algorithmes d'apprentissage automatique construisent des modèles basés sur des données d'entraînement (propre ou non), afin de faire des prédictions sans être explicitement programmé pour le faire. Sauf la précision de prédiction, la vitesse de convergence et la stabilité sont deux autres facteurs clés pour évaluer le processus de l'apprentissage, en particulier dans le cas d'apprentissage en ligne, et ces propriétés ont déjà été bien étudiées en théorie du contrôle. Donc, cette thèse implémente des recherches suivantes : 1) Identification du système et contrôle optimal des données macroéconomiques : Nous modélisons d'abord les données macroéconomiques chinoises sur le modèle VAR (Vector Auto-Regression), puis identifions la relation de cointégration entre les variables et utilisons le Vector Error Correction Model (VECM) pour étudier le court terme fluctuations autour de l'équilibre à long terme, la causalité de Granger est également étudiée avec VECM. Ce travail révèle la tendance de la transition de la croissance économique de la Chine : de l'exportation vers la consommation ; La deuxième étude est avec des données de la France. On représente le modèle dans l'espace d'états, mettons le modèle dans un cadre de feedback-control, le contrôleur est conçu par un régulateur linéaire-quadratique (LQR). On peut également imposer des perturbations sur les sorties et des contraintes sur les entrées, ce qui simule la situation réelle de crise économique. 2) Utilisation de la théorie du contrôle pour améliorer l'apprentissage en ligne du réseau neuronal profond : Nous proposons un algorithme de taux d'apprentissage basé sur les performances : E (Exponential)/PD (Proportional Derivative) contrôle, qui considère le Convolutional Neural Network (CNN) comme une plante, taux d'apprentissage comme signal de commande et valeur de loss comme signal d'erreur. Le résultat montre que E/PD surpasse l'état de l'art en termes de précision finale, de loss finale et de vitesse de convergence, et le résultat est également plus stable. Cependant, une observation des expériences E/PD est que le taux d'apprentissage diminue tandis que la loss diminue continuellement. Mais la loss diminue, le modèle s’approche d’optimum, on ne devait pas diminuer le taux d'apprentissage. Pour éviter cela, nous proposons un event-based E/PD. Le résultat montre qu'il améliore E/PD en précision finale, loss finale et vitesse de convergence ; Une autre observation de l'expérience E/PD est que l'apprentissage en ligne fixe des époques constantes pour chaque batch. Puisque E/PD converge rapidement, l'amélioration significative ne vient que des époques initiales. Alors, nous proposons un autre event-based E/PD, qui inspecte la loss historique. Le résultat montre qu'il peut épargner jusqu'à 67% d'époques sur la donnée CIFAR-10 sans dégrader beaucoup les performances.3) Apprentissage automatique à partir de données non fiables : Nous proposons un cadre générique : Robust Anomaly Detector (RAD), la partie de sélection des données de RAD est un cadre à deux couches, où la première couche est utilisée pour filtrer les données suspectes, et la deuxième couche détecte les modèles d'anomalie à partir des données restantes. On dérive également trois variantes de RAD : voting, active learning et slim, qui utilisent des informations supplémentaires, par exempe, les opinions des classificateurs conflictuels et les requêtes d'oracles. Le résultat montre que RAD peut améliorer la performance du modèle en présence de bruit sur les étiquettes de données. Trois variations de RAD montrent qu'elles peuvent toutes améliorer le RAD original, et le RAD Active Learning fonctionne presque aussi bien que dans le cas où il n'y a pas de bruit sur les étiquettes
System identification and machine learning are two similar concepts independently used in automatic and computer science community. System identification uses statistical methods to build mathematical models of dynamical systems from measured data. Machine learning algorithms build a mathematical model based on sample data, known as "training data" (clean or not), in order to make predictions or decisions without being explicitly programmed to do so. Except prediction accuracy, converging speed and stability are another two key factors to evaluate the training process, especially in the online learning scenario, and these properties have already been well studied in control theory. Therefore, this thesis will implement the interdisciplinary researches for following topic: 1) System identification and optimal control on macroeconomic data: We first modelize the China macroeconomic data on Vector Auto-Regression (VAR) model, then identify the cointegration relation between variables and use Vector Error Correction Model (VECM) to study the short-time fluctuations around the long-term equilibrium, Granger Causality is also studied with VECM. This work reveals the trend of China's economic growth transition: from export-oriented to consumption-oriented; Due to limitation of China economic data, we turn to use France macroeconomic data in the second study. We represent the model in state-space, put the model into a feedback control framework, the controller is designed by Linear-Quadratic Regulator (LQR). The system can apply the control law to bring the system to a desired state. We can also impose perturbations on outputs and constraints on inputs, which emulates the real-world situation of economic crisis. Economists can observe the recovery trajectory of economy, which gives meaningful implications for policy-making. 2) Using control theory to improve the online learning of deep neural network: We propose a performance-based learning rate algorithm: E (Exponential)/PD (Proportional Derivative) feedback control, which consider the Convolutional Neural Network (CNN) as plant, learning rate as control signal and loss value as error signal. Results show that E/PD outperforms the state-of-the-art in final accuracy, final loss and converging speed, and the result are also more stable. However, one observation from E/PD experiments is that learning rate decreases while loss continuously decreases. But loss decreases mean model approaches optimum, we should not decrease the learning rate. To prevent this, we propose an event-based E/PD. Results show that it improves E/PD in final accuracy, final loss and converging speed; Another observation from E/PD experiment is that online learning fixes a constant training epoch for each batch. Since E/PD converges fast, the significant improvement only comes from the beginning epochs. Therefore, we propose another event-based E/PD, which inspects the historical loss, when the progress of training is lower than a certain threshold, we turn to next batch. Results show that it can save up to 67% epochs on CIFAR-10 dataset without degrading much performance. 3) Machine learning out of unreliable data: We propose a generic framework: Robust Anomaly Detector (RAD), The data selection part of RAD is a two-layer framework, where the first layer is used to filter out the suspicious data, and the second layer detects the anomaly patterns from the remaining data. We also derive three variations of RAD namely, voting, active learning and slim, which use additional information, e.g., opinions of conflicting classifiers and queries of oracles. We iteratively update the historical selected data to improve accumulated data quality. Results show that RAD can continuously improve model's performance under the presence of noise on labels. Three variations of RAD show they can all improve the original setting, and the RAD Active Learning performs almost as good as the case where there is no noise on labels
APA, Harvard, Vancouver, ISO, and other styles
17

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles." Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Full text
Abstract:
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography