Thèses sur le sujet « Implémentation 5G temps réel »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Implémentation 5G temps réel.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 21 meilleures thèses pour votre recherche sur le sujet « Implémentation 5G temps réel ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Wang, Tsu-Han. « Real-time Software Architectures and Performance Evaluation Methods for 5G Radio Systems ». Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS362.pdf.

Texte intégral
Résumé :
La thèse porte sur les architectures temps réel pour la radio-logicielle 5G. Afin de répondre aux exigences de performances de la 5G, une accélération des procédés critiques combinée à des méthodes d’ordonnancement de processus temps réels sont nécessaires. Dans les systèmes embarqués 5G, l'accélération équivaut à une combinaison judicieuse d'unités matérielles supplémentaires pour les fonctions les plus coûteuses en termes de calcul avec des composants logiciels pour des procédures de contrôle complexe ainsi que l’arithmétique simples. Des solutions entièrement logicielles apparaissent également pour certaines applications, notamment dans l'écosystème dit Open Radio-Access Network (openRAN). Les contributions de cette thèse résident dans des méthodes d'accélération purement logicielles et de contrôle en temps réel d'interfaces dit « fronthaul » à faible latence. Étant donné que la 5G a des exigences de latence strictes et prend en charge le trafic de données à très haut débit, les méthodes d’ordonnancement du traitement en bande de base doivent être adaptées aux spécificités de l'interface radio. Plus précisément, nous proposons une décomposition fonctionnelle de l'interface-air 5G qui se prête à des implémentations logicielles multicœurs ciblant des serveurs haut de gamme exploitant l'accélération de données multiples à instruction unique (SIMD). De plus, nous fournissons quelques pistes pour le traitement multithread via le pipelining et l'utilisation de pools de threads. Nous mettons en évidence les méthodes et la caractérisation de leur performances qui ont été exploitées lors du développement de l'implémentation OpenAirInterface 5G
The thesis deals with 5G real-time Software Defined Radio architectures. In order to match 5G performance requirements, computational acceleration combined with real-time process scheduling methods are required. In 5G embedded systems acceleration amounts to a judicious combination additional hardware units for the most computationally costly functions with software for simpler arithmetic and complex control procedures. Fully software-based solutions are also appearing for certain applications, in particular in the so-called Open Radio-Access Network (openRAN) ecosystem. The contributions of this thesis lie in methods for purely software-based acceleration and real-time control of low-latency fronthaul interfaces. Since 5G has stringent latency requirements and support for very high-speed data traffic, methods for scheduling baseband processing need to be tailored to the specifics of the air-interface. Specifically, we propose a functional decomposition of the 5G air interface which is amenable to multi-core software implementations targeting high-end servers exploiting single-instruction multiple-data (SIMD) acceleration. Moreover, we provide some avenues for multi-threaded processing through pipelining and the use of thread pools. We highlight the methods and their performance evaluation that have been exploited during the development of the OpenAirInterface 5G implementation
Styles APA, Harvard, Vancouver, ISO, etc.
2

Larouche, Jean-Benoit. « Implémentation d'une couche physique temps réel MIMO-OFDM sur FPGA ». Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30389/30389.pdf.

Texte intégral
Résumé :
Ce mémoire est consacré à la description détaillée d’une couche physique implémentée sur une plateforme FPGA. La couche physique intègre plusieurs des technologies présentes dans les standards de télécommunication de dernière génération. Tout d’abord, un survol des technologies OFDM et MIMO est effectué puisque que ces deux technologies sont d’une grande importance dans les télécommunications d’aujourd’hui. Par la suite, une description du matériel utilisé pour tester le bon fonctionnement de la couche physique est effectuée. Une bonne partie du mémoire sera consacrée à la description de la couche physique déployée. Un schéma-bloc détaillé de cette dernière est présenté. La couche physique est divisée principalement en deux parties : le transmetteur et le récepteur. Au niveau du transmetteur, la structure du paquet généré sera présentée ainsi que les différents symboles d’acquisition et d’estimation de canal. Du côté du récepteur, nous nous attarderons aux algorithmes mis en œuvres afin d’effectuer le décodage d’un paquet. L’algorithme de contrôle de gain automatique, l’estimateur de déviation fréquentiel de la porteuse, le détecteur de début de paquet et l’estimateur de canal seront présentés. Enfin, des courbes démontrant le taux d’erreurs de bit dans du bruit blanc gaussien additif seront présentées et comparées avec les courbes théoriques. Une discussion sur les résultats suivra ainsi qu’une liste de suggestions afin de porter plus loin la couche physique.
This report is focused on a detailed description of a physical layer implemented on an FPGA platform. The physical layer integrates many of the up to date technologies used in the latest generation telecommunication standards. First of all, an overview of the OFDM and MIMO technologies is presented since both technologies are very important in today’s telecommunications. Thereafter, there is a description of the hardware used to test the proper functioning of the physical layer. The major part of this report is aimed toward the description of the physical layer itself. A detailed block diagram of the latter is presented. The physical layer is divided in two main sections: the transmitter and the receiver. Regarding the transmitter, the structure of the generated packet is presented together with the acquisition and channel estimation symbols. On the receiver side, we will focus on the implemented algorithms to decode a packet. The automatic gain control algorithm, the carrier frequency offset estimator, the block boundary detector and the channel estimator are detailed. Finally, binary error rate curves in an additive white Gaussian noise channel will be presented and compared to theoretical curves. A discussion about the obtained results will follow as well as a list of the future improvements which could be made to take the physical layer further.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Moutault, Sébastien. « Définition et implémentation d'un modèle causal d'exécution temps-réel distribuée ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00667238.

Texte intégral
Résumé :
Ces travaux s'inscrivent dans le cadre du projet AROS (Automotive Robust Operating Services). Il a pour objectif de proposer un outil de prototypage rapide d'applications dynamiques distribuées temps-réel, principalement dans le domaine de l'automobile et de la robotique. Les applications distribuées temps-réel sont traditionnellement développées selon deux approches. La première, l'ordonnancement temporel, est basée sur l'analyse du pire temps d'exécution (worst execution time). Un partage du temps entre les différentes tâches de l'application est établi de façon statique. Cette technique offre une grande sureté de fonctionnement au prix d'une analyse temporelle parfois difficile à mener. La seconde, l'ordonnancement par priorité, est basée sur l'attribution à chaque tâche d'un niveau de priorité qui permet d'établir l'ordre d'exécution en fonction des évènements reçus par le système. Cette seconde technique, plus souple à mettre en œuvre, offre moins de garanties et conduit à un comportement non déterministe de l'application. La structure des applications AROS étant dynamique, l'approche temporelle est exclue car elle demande une analyse statique qu'il est impossible de produire. L'approche basée sur les priorités d'exécution est également exclue à cause de son non déterminisme comportemental. Nous proposons une approche basée sur un ordonnancement évènementiel causal inspirée des techniques d'ordonnancement des simulateurs évènementiels distribués. Tout en étant relativement simple à utiliser pour le concepteur d'application, cette technique produit des applications dont le comportement est parfaitement déterministe. Deux principales difficultés sont à surmonter : la synchronisation en temps-réel du moteur d'exécution et le respect des contraintes temps-réel.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Moutault, Sébastien. « Définition et implémentation d'un modèle causal d'exécution temps-réel distribuée ». Phd thesis, Paris, ENMP, 2011. https://pastel.hal.science/pastel-00667238.

Texte intégral
Résumé :
Ces travaux s'inscrivent dans le cadre du projet AROS (Automotive Robust Operating Services). Il a pour objectif de proposer un outil de prototypage rapide d'applications dynamiques distribuées temps-réel, principalement dans le domaine de l'automobile et de la robotique. Les applications distribuées temps-réel sont traditionnellement développées selon deux approches. La première, l'ordonnancement temporel, est basée sur l'analyse du pire temps d'exécution (worst execution time). Un partage du temps entre les différentes tâches de l'application est établi de façon statique. Cette technique offre une grande sureté de fonctionnement au prix d'une analyse temporelle parfois difficile à mener. La seconde, l'ordonnancement par priorité, est basée sur l'attribution à chaque tâche d'un niveau de priorité qui permet d'établir l'ordre d'exécution en fonction des évènements reçus par le système. Cette seconde technique, plus souple à mettre en œuvre, offre moins de garanties et conduit à un comportement non déterministe de l'application. La structure des applications AROS étant dynamique, l'approche temporelle est exclue car elle demande une analyse statique qu'il est impossible de produire. L'approche basée sur les priorités d'exécution est également exclue à cause de son non déterminisme comportemental. Nous proposons une approche basée sur un ordonnancement évènementiel causal inspirée des techniques d'ordonnancement des simulateurs évènementiels distribués. Tout en étant relativement simple à utiliser pour le concepteur d'application, cette technique produit des applications dont le comportement est parfaitement déterministe. Deux principales difficultés sont à surmonter : la synchronisation en temps-réel du moteur d'exécution et le respect des contraintes temps-réel
This work is part of the AROS project. Its goal is to define a fast prototyping tool for dynamic and distributed real-time applications, mostly for automotive industry and robotic. Two distinct methods are normally used to develop distributed real-time applications. The first one -the time triggered approach- is based on worst execution time analysis, whereby time sharing for the various tasks of an application is statically defined. This approach offers considerable safety but the time analysis is sometimes difficult to process. The second one -the priority scheduling approach- is based on ascribing a priority level to each task, which will then allow the system to define an execution order, based on the events is has received. This second approach is more flexible and easier to implement but is less safe and cannot ensure that the application behaves predictably. The structure of the AROS applications being dynamic, the time-triggered approach is irrelevant as it requires a static analysis that cannot be conducted. The priority scheduling approach is also irrelevant because of the non predictable behaviour. We propose an approach based on causal events scheduling inspired by distributed event simulators scheduling techniques. While comparatively easy to use for application designers, this new approach produces applications with a perfectly predictable behaviour. Two main obstacles must be overcome: the real time synchronisation of the execution engine and compliance with real-time constraints
Styles APA, Harvard, Vancouver, ISO, etc.
5

Goma, Raphaël. « Sur la stabilisation des réseaux électriques : mise en oeuvre sur bancs d'essais de commandes non linéaires ». Paris 11, 2004. http://www.theses.fr/2004PA112265.

Texte intégral
Résumé :
L'objectif de cette thèse est de développer et de mettre en pratique sur les bancs d'essais de nouvelles techniques de commande non linéaire qui permettent de stabiliser les alternateurs couplés à un réseau électrique de forte puissance et un réseaux de plusieurs alternateurs. Deux types de régulateurs sont présentés. Le premier est un contrôleur non linéaire adaptatif dont la particulatité est d'amener le système vers un nouveau point d'équilibre au démarrage de l'adaptation et d'assurer la stabilité asymptotique. Il est conçu selon les techniques de linéarisation par retour d'état et la méthode de Lyapunov. Le second régulateur est un contrôleur non linéaire multivariable à découpage, basé sur la technique de linéarisation entrée-sortie. Ces régulateurs permettent de stabiliser le système autour d'un " spèctre" de points de fonctionnement le plus grand possible enprésence des perturbations sévères, d'améliorer la performance transitoire et d'amortir de façon significative les oscillations locales et inter-zones. Nous proposons des algorithmes qui permettent, à partir des grandeurs mesurables telles que la puissance active et la puissance réactive ainsi que la tension terminale, de calculer la réactance de l'impédance de la ligne de transport d'énergie et l'angle d'échange de puissance entre l'alternateur et le réseau de forte puissance. Enfin, nous montrons à partir des résultats pratiques, les performances et l'avantage des contrôleurs non linéaires, ainsi que les limites des contrôleurs linéaires classiques
This thesis develops and presents two new nonlinear controllers for power systems stabilization. The first controller is an adaptive nonlinear one using feedback linearisation technique where the system is driven to the new equilibrium point as the adaptation runs, and try to assure better than just asymptotical stability. The second is a robust nonlinear controller for the multi-input multi-output model. It consists of applying nonlinear linearizing and decoupling synchronous machines excitation and turbine gate input. A real-time implementation of these nonlinear controllers is investigated. The experimental setup of these powers systems includes synchronous machine connected to a large power system through a transmission line and a multimachine network. The controllers proposed here are assumed to achieve transient stabilization and voltage regulation when large and sudden faults occur on the transmission line, or to the multimachine network, so that the mechanical power may permanently take any value within its physical bounds. We propose to rebuilt the power angle and the transmission line through available measures. The efficiency of the proposed controllers has been verified via experimental results and compared to the performance of the standard linear controllers such as the Automatic Voltage Regulator (AVR) and Power System Stabilizer (PSS). Results of the experimental studies demonstrate the effectiveness of these nonlinear controllers. It is shown via the experimental results that the operating equilibrium region is enlarged and the inter-area oscillations are also well damped
Styles APA, Harvard, Vancouver, ISO, etc.
6

Abdellatif, Tesnim. « Implémentation rigoureuse des systèmes temps-réels ». Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00744508.

Texte intégral
Résumé :
Les systèmes temps-réels sont des systèmes qui sont soumis à "des contraintes de temps", comme par exemple le délais de réponse d'un système à un événement physique. Souvent les temps de réponse sont de l'ordre du milliseconde et parfois même du microseconde. Construire des systèmes temps-réels nécessite l'utilisation de méthodologies de conception et de mise en œuvre qui garantissent la propriété de respect des contraintes de temps, par exemple un système doit réagir dans les limites définies par l'utilisateur tels que les délais et la périodicité. Un délai non respecté dans systèmes temps-réel critique est catastrophique, comme par exemple dans les systèmes automobiles. Si un airbag se déclanche tard dans un accident de voiture, même quelques millisecondes trop tard peuvent conduire à des répercussions graves. Dans les systèmes temps-réels non critiques, une perte significative de performance et de QoS peuvent se produire, comme par exemple dans les réseaux de systèmes multimédia. Contribution: Nous fournissons une méthode de conception rigoureuse des systèmes temps-réel. L'implèmentation est générée à partir d'une application logicielle temps-réel et une plate-forme cible, en utilisant les deux modèles suivants: * Un modèle abstrait représentant le comportement de l'application logicielle en temps réel sous forme d' un automate temporisé. Celui-ci décrit des contraintes temporelles définies par l'utilisateur qui sont indépendantes de la plateforme. Ses transitions sont intemporelles et correspondent à l'exécution des différentes instructions de l'application. * Un modèle physique représentant le comportement du logiciel en temps réel s'exécutant sur une plate-forme donnée. Il est obtenu par l'attribution des temps d'exécution aux transitions du modèle abstrait. Une condition nécessaire pour garantir l'implémentabilité dy système est la "time-safety", c'est à dire, toute séquence d'exécution du modèle physique est également une séquence d'exécution du modèle abstrait. "Time-safety" signifie que la plate-forme est assez rapide pour répondre aux exigences de synchronisation de l'application. Comme les temps d'exécution des actions ne sont pas connus avec exactitude, "time-safety" est vérifiée pour les temps d'exécution pire cas es actions en faisant l' hypothèse de la robustesse. La robustesse signifie que la "time-safety" est préservée lorsqu'on augmente la vitesse de la plate-forme d'exécution. Pour des logiciels et plate-forme d'exécution correspondant à un modèle robuste, nous définissons un moteur d'exécution qui coordonne l'exécution du logiciel d'application afin de répondre à ses contraintes temporelles. En outre, en cas de non-robustesse, le moteur d'exécution permet de détecter les violations de contraintes temporelles en arrêtant l'exécution. Nous avons mis en place le moteur d'exécution pour les programmes BIP. Nous avons validé la méthode pour la conception et la mise en œuvre du robot Dala. Nous montrons les avantages obtenus en termes d'utilisation du processeur et l'amélioration de la latence de la réaction.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Boussaid, Lotfi. « Etude et implémentation de descripteurs de contenu AV pour les applications multimedia temps réel ». Dijon, 2006. http://www.theses.fr/2006DIJOS049.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse constituent une contribution à la conception de systèmes électroniques embarqués dédiés aux applications multimédia temps réel. Ils rentrent dans le cadre de la méthodologie de conception de nouvelles architectures matérielles et/ou logicielles dédiées à l'analyse et à la description de contenu audiovisuel. Dans cette thèse nous nous sommes intéressés, dans une première phase, à la validation et l'optimisation d'algorithmes de détection de changement de plans vidéo et à l'extraction d'informations sémantiques de haut niveau à partir de descripteurs audiovisuels de bas niveau. A la suite de cette étape, nous présentons les différentes solutions d'implémentation matérielles et/ou logicielles relatives aux détecteurs de cut et de fondu à différents niveaux d'abstraction (logique, RTL et de haut niveau basé plateforme). Dans la dernière étape de cette thèse un modèle d'architecture générique dédiée à l'analyse et à la description de contenu audiovisuel a été proposé. La transposition de ce modèle sur des systèmes embarqués est devenue possible grâce à l'évolution des FPGAs récemment commercialisés et aux nouveaux outils et méthodologies introduits dans la conception des systèmes sur puce programmable (SOPC)
The works presented in this thesis contribute to the design of embedded electronic systems which are dedicated for real time multimedia applications. They fall within the framework of design methodology of the new hardware and/or software architecture used for analysis and description of audiovisual content. In this thesis we are first interested in the validation and optimization of shot boundary detection algorithms and in the extraction of high level semantic information using low level audiovisual descriptors. After that, we present the solutions of hardware and/or software implementation related to cut and dissolve detectors at different abstraction levels (logic, RTL and high level based platform). In the last part of this thesis, we propose a generic architecture template for audiovisual content analysis and description. The transposition of this template on embedded systems became possible with the evolution of recently marketed FPGA and the new tools and methodology used on system on programmable chip (SOPC)
Styles APA, Harvard, Vancouver, ISO, etc.
8

Guiard-Marigny, Thierry. « Modélisation tridimensionnelle des articulateurs de la parole : implémentation temps réel et mesures d'intelligibilité bimodale ». Grenoble INPG, 1996. http://www.theses.fr/1996INPG0164.

Texte intégral
Résumé :
Nous presentons une chaine complete d'analyse-synthese de visages tridimensionnels parlants, developpee pour mener des etudes fondamentales sur la production et la perception visuelle de la parole. Dans un premier temps, une taxinomie originale des differents systemes d'animation de visages synthetiques existants est dressee en decrivant precisement toutes les phases du processus. Les principaux resultats sur la bimodalite intrinseque de la parole sont ensuite analyses pour souligner les precautions a prendre afin de respecter une bonne synchronisation labiale. Une modelisation des organes visibles de la partie inferieure du visage (levres, machoire et peau) a ete realisee sur la base de leurs caracteristiques physiologiques. L'ensemble des modeles est commande par six parametres anatomiques, directement mesurables sur le visage d'un locuteur maquille. La qualite des mouvements labiaux et de leur synchronisation avec le signal de parole a ete evaluee a travers des tests de perception mesurant l'apport d'intelligibilite des modeles a de la parole bruitee. Notre dispositif d'extraction des parametres faciaux est base sur une analyse chromatique d'images video du visage d'un locuteur aux levres maquillees en bleu. Il fournit precisement, en temps reel et 25 fois par seconde, les parametres de commande du visage synthetique. L'ensemble des modeles faciaux et du dispositif de mesure constitue un systeme complet d'analyse-synthese de visages parlants dont les performances permettent des applications aussi bien en recherche fondamentale sur la bimodalite de la parole qu'en communication homme-machine. Notre systeme peut etre mis a la disposition des infographistes pour automatiser le lip-sync dans les films d'images de synthese. Ce travail a ete developpe et est utilise dans le cadre du projet esprit-bra miami
Styles APA, Harvard, Vancouver, ISO, etc.
9

Laly, Pierre. « Sondeur de canal MIMO temps réel et applications ». Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10168/document.

Texte intégral
Résumé :
Pour atteindre avec la 4G des débits théoriques supérieurs à 100 Mb/s et espérer pouvoir multiplier par 20 l’efficacité énergétique des futurs réseaux 5G, toute la richesse du canal de propagation doit être exploitée. Cet axe de recherche innovant d’optimisation de la couche physique de la communication se base sur la caractérisation multidimensionnelle « temps réel » du canal. Cette notion de "temps réel" signifie que toutes les dimensions spatiales (à l'émission et à la réception), temporelle, fréquentielle et polarimétrique seront explorées simultanément pour s'assurer des conditions de stationnarité du canal pendant la mesure. Le sondeur associé, objet de la thèse, doit également être capable de s’adapter à différents scénarii de propagation, y compris à un contexte de haute mobilité pour une liaison sol-sol entre trains à grande vitesse par exemple. Le système qui a ainsi été développé à l'aide de composants numériques programmables, fournit avec un temps de latence inférieur à quelques dizaines de µs et sans post traitement, 128 fonctions de transfert associées à un canal MIMO (8,16) dans 80 MHz de bande, la durée du signal transmis étant de 150 µs. Sa reconfigurabilité aisée lui confère l'originalité d'être multi fonctions pour s'adapter aux challenges à venir. Citons par exemple la cybersécurité des communications sans fil pour laquelle l'équipement aura les rôles de système de communication, de générateur d'interférences et de sondeur de canal.Dans le cadre de la localisation, via leur téléphone portable de personnes situées en forêt, les résultats des campagnes de mesures menées avec le sondeur soit au sol, soit embarqué dans un ULM, sont également décrits
To be able to reach a bit rate higher than 100Mb/s with 4G systems and to multiply by 20 the energy efficiency of future 5G networks, all the propagation channel richness must be exploited. This innovative research area dealing with the physical layer optimization is based on the multidimensional channel characterization in "real time". This concept of “real time” means that space, time, frequency and polarimetric dimensions are explored simultaneously to ensure stationarity conditions of the channel during measurements. The channel sounder, subject of the thesis, must also be able to adapt to different scenarios of propagation, including a context of high mobility as, for example, in the case of a communication between high-speed trains. The system that has been developed, based on programmable digital components, allows measuring in a 80Mz bandwidth, 128 transfer functions associated with a (8,16) MIMO channel in less than a few tens of µs and without post-processing. The duration of the transmitted signal is 150 µs. Another originality of this sounder is its easy reconfigurability and its multi-function ability. For example, for studying cyber security of wireless communications, it would play the role of communication system, interference source and channel sounder. In the frame of localization of people in forest owing to their mobile phone, results of channel characterization conducted with the sounder placed either on the ground, or in an ULM, are also described and analyzed
Styles APA, Harvard, Vancouver, ISO, etc.
10

Marin, Yoan. « Développement de nouvelles techniques de Super résolution de séquences vidéo : Vers une implémentation temps réel sur Smart Caméra ». Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCK050.

Texte intégral
Résumé :
Ces travaux de thèse s’inscrivent dans le contexte d’un projet européen visant à créer une caméra très haute résolution 8k. Au sein de ce projet notre équipe a eu la tâche de travailler sur deux aspects technologiques : (1) la création d’un démonstrateur réalisant une déconvolution en temps réel d’un flux vidéo provenant d’une caméra très haute résolution créée par le consortium, (2) la création d’un prototype permettant d’augmenter la résolution et le niveau de détail de flux vidéod’une résolution d’entrée de 4k vers le 8k en utilisant des méthodes de Super Résolution (SR). Ce manuscrit présente principalement les travaux liés à la création du prototype réalisant une méthode de SR. Afin de pouvoir évaluer l’apport qualitatif de la SR, une étude sur la pertinence des métriques est réalisée afin de sélectionner les métriques les plus adaptées à évaluer des traitements d’amélioration de la qualité des images. Ensuite, une nouvelle méthode de SR Spatiale nommée LASSR pour Local Adaptive Spatial Super Resolution a été mise en place pour corriger certains artefacts observés lors de l’implantationd’une méthode de SR de l’état de l’art. Notre méthode permet d’adapter localement le traitement en fonction de la texture, cette adaptation est réalisée automatiquement en utilisant un modèle de décision généré lors d’un apprentissage supervisé.Suite à la validation de notre méthode par un panel d’experts lors d’une évaluation psychovisuelle, le module IP a été développé pour fonctionner avec des volumes de données très importants sur des cibles FPGA et pour fonctionner en temps réel. Uneboite à outils de composants a été créée afin de pouvoir décrire le module de manière générique. Cela permet d’adapter le module LASSR à différentes configurations (taille de l’image, dynamique des pixels . . .). L’élément majeure de cette boîte àoutil est le filtre de convolution 2-D générique : sa taille et ses coefficients sont paramétrables (la puce FPGA peut limiter ce filtre). Des résultats encourageants ont été obtenus concernant l’augmentation de résolution pour une image de sortie 4k enniveaux de gris, il est possible pour un seul module LASSR d’obtenir une fréquence de sortie de 17.03 im/s. Sur le FPGA de la carte de développement VC707 de Xilinx il est théoriquement possible d’atteindre une fréquence de 136.2 im/s en parallélisant8 modules LASSR
These thesis works are part of an european project aiming to design a very hight resolution (8k) video camera. Within this project our team had the task of working on two technological aspects: (1) the design of a demonstrator carrying out a realtime deconvolution of a video stream coming from a very high resolution camera created by the consortium , (2) the design of a prototype allowing to increase the resolution and the level of detail of video streams from an input resolution of 4k to 8k using Super Resolution (SR) methods. This manuscript mainly presents the work related to the creation of the prototype realizing a Super Resolution method. In order to be able to assess the qualitative contribution of SR, a study on the relevance of the metrics is carried out in order to select the most suitable metrics for evaluating image quality improvement processes. Then, a new method of Spatial SR named LASSR for Local Adaptive Spatial Super Resolution was implemented to correct certain artefacts observed with a State of the Art SR method. Our method allows to locally adapt the processing according the texture, this adaptation is carried out automatically using a decision model generated during supervised learning. Following the validation of our method by a panel of experts during a psychovisual assesment, the IP module was developed to operate with very large volumes of data on FPGA targets and to operate in real time. A toolbox of components has been created in order to describe the module in a generic way. This allows the LASSR module to be adapted to different configurations (image size, pixel dynamics . . .). The major element of this toolbox is the generic 2-D convolution filter : its size and its coecients can be tuned (the FPGA chip limits this filter). Encouraging results have been obtained regarding the increase in resolution for a 4k grayscale output image, it is possible for a single LASSR module to achieve an output frequency of 17.03 fps. On the FPGA of the Xilinx VC707 development board, it is theoretically possible to reach a frequency of 136.2 fps by parallelizing 8 LASSR modules
Styles APA, Harvard, Vancouver, ISO, etc.
11

Clerc, Vincent. « Implémentation de processus hétérogènes de traitement du signal en temps réel à contrainte moyenne : application à la radio-astronomie ». Paris 6, 2003. http://www.theses.fr/2003PA066519.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Vidal, Eloïse. « Étude et implémentation d'une architecture temps réel pour l'optimisation de la compression H.264/AVC de vidéos SD/HD ». Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0011/document.

Texte intégral
Résumé :
La vidéo sur IP a connu un essor rapide ces dernières années allant de la diffusion télévisuelle en haute qualité via des réseaux dédiés à la diffusion sur internet de contenus vidéo grand public. L’optimisation de l’encodage vidéo H.264/AVC permet aux différents acteurs du marché de se différencier en proposant des solutions pour réduire le débit nécessaire à la représentation d’un flux vidéo ainsi que pour améliorer la qualité perçue par les utilisateurs. C’est dans ce contexte de vidéo professionnelle en haute qualité que s’inscrivent ces travaux de thèse CIFRE réalisés au sein de l’entreprise Digigram, proposant des encodeurs vidéo temps réel pour des diffusions professionnelles en direct. Nous proposons deux solutions de prétraitement pour répondre aux problématiques du secteur de la distribution vidéo. Les deux solutions considèrent les caractéristiques du système visuel humain en exploitant un modèle de JND (Just Noticeable Distortion) définissant des seuils de perception en fonction d’une analyse du contenu des séquences vidéo à encoder. La première solution utilise un préfiltre adaptatif indépendant de l’encodeur, contrôlé par un modèle JND afin d'éliminer le contenu perceptuellement non pertinent et ainsi réduire le débit sans altérer la qualité ressentie. Une analyse approfondie de plusieurs filtres de la littérature, dont le filtre AWA (Adaptive Weighted Averaging) et le filtre bilatéral, nous a également amené à définir deux nouveaux filtres à support étendu qui permettent d’exploiter au mieux les corrélations dans les images haute définition. A l’aide de tests subjectifs, nous montrons que les préfiltres perceptuels proposés permettent en moyenne de diminuer le débit en sortie du codeur d'environ 20% pour une qualité constante en encodage VBR (débit variable) Intra et Inter-image. Finalement, une deuxième solution s’attache à améliorer la qualité perçue dans un contexte d’encodage CBR (débit constant) en intégrant un modèle JND dans l’une des implémentations de la norme H.264/AVC la plus reconnue, le codec x264. Une quantification adaptative perceptuelle est ainsi proposée permettant d’améliorer les performances du codec x264 en améliorant le codage de l’information de contour à moyen et bas débits en encodage intra et inter-image
The use of digital video over IP has increased exponentially over the last years, due to the development of high-speed networks dedicated to high quality TV transmission as well as the wide development of the nonprofessional video webcast. Optimization of the H.264/AVC encoding process allows manufacturers to offer differentiating encoding solutions, by reducing the bandwidth necessary for transmitting a video sequence at a given quality level, or improving the quality perceived by final users at a fixed bit rate. This thesis was carried out at the company Digigram in a context of professional high quality video. We propose two solutions of preprocessing which consider the characteristics of the human visual system by exploiting a JND profile (Just Noticeable Distortion). A JND model defines perceptual thresholds, below which a distortion cannot be seen, according to the video content. The first solution proposes an adaptive pre-filter independent to the encoder, controlled by a JND profile to reduce the perceptually non-relevant content and so reduce the bitrate while maintaining the perceived quality. By analyzing the state-of-the-art literature, the AWA (Adaptive Weighted Averaging) and Bilateral filters have been selected. Then we define two new filters using a large convolution mask, which enable to better exploit correlations in high-definition video contents. Through subjective tests, we show that the proposed perceptual prefilters give an average bitrate reduction of 20% for the same visual quality in VBR (Variable Bitrate) H.264/AVC Intra and Inter encoding. Finally, the second solution enables to improve the perceived quality in CBR (Constant Bitrate) encoding, by integrating the JND profile into the x264 codec, one of the best implementation of the H.264/AVC standard. Thus, we propose a perceptual adaptive quantization which enhances the x264 performance by improving edge information coding in low and middle bitrate applications
Styles APA, Harvard, Vancouver, ISO, etc.
13

Loeuillet, Jean-Louis. « Implémentation d'un protocole de niveau réseau sur un réseau local de type GIXINET ». Paris 11, 1987. http://www.theses.fr/1987PA112360.

Texte intégral
Résumé :
Analyse fonctionnelle d'un réseau local type gixinet afin d'identifier l'ensemble des fonctions nécessaires à la mise en communication de deux entités. Cette analyse conduit à une décomposition en quatre blocs fonctionnels auxquels correspondent quatre niveaux de protocoles. Une implantation de l'architecture choisie est décrite comme un moniteur temps réel
Styles APA, Harvard, Vancouver, ISO, etc.
14

Ben, Jmaa Chtourou Yomna. « Implémentation temps réel des algorithmes de tri dans les applications de transports intelligents en se basant sur l'outil de synthèse haut niveau HLS ». Thesis, Valenciennes, 2019. http://www.theses.fr/2019VALE0013.

Texte intégral
Résumé :
Les systèmes de transports intelligents jouent un rôle important dans la minimisation des accidents, embouteillage, et la pollution d’air. Parmi ces systèmes, nous citons le domaine avionique qui utilise dans plusieurs cas les algorithmes de tri qui sont l’une des opérations importante pour des applications embarquées temps réels. Cependant, l’évolution technologique tend vers des architectures de plus en plus complexes pour répondre aux exigences applicatives. À cet égard, les concepteurs trouvent leur solution idéale dans l’informatique reconfigurable, basée sur des architectures hétérogènes CPU/FPGA qui abritent des processeurs multi-core (CPU) et des FPGAs qui offrent de hautes performances et une adaptabilité aux contraintes temps-réel de l’application. L’objectif principal de mes travaux est de développer une implémentions matérielle des application de transports intelligents (algorithme de planification de plan de vol A*)et les algorithmes de tri sur l’architecture hétérogène CPU/FPGA en utilisant l’outil de synthèse haut niveau pour générer le design RTL à partir de la description comportementale. Cette étape nécessite des efforts supplémentaires de la part du concepteur afin d'obtenir une implémentation matérielle efficace en utilisant plusieurs optimisations avec différents cas d’utilisation : logiciel, matérielle optimisé et non optimisé et aussi pour plusieurs permutations/vecteurs générer à l’aide d’un générateur de permutation basé sur Lehmer. Pour améliorer les performances, nous avons calculés le temps d’exécution, l’écart type et le nombre de ressource utilisé pour les algorithmes de tri en considérant plusieurs tailles de données varient entre 8 et 4096 éléments. Finalement, nous avons comparé les performances de ces algorithmes. Cet algorithme sera intégrer les applications d’aide à la décision, planification du plan de vol
Intelligent transport systems play an important role in minimizing accidents, traffic congestion, and air pollution. Among these systems, we mention the avionics domain, which uses in several cases the sorting algorithms, which are one of the important operations for real-time embedded applications. However, technological evolution is moving towards more and more complex architectures to meet the application requirements. In this respect, designers find their ideal solution in reconfigurable computing, based on heterogeneous CPU / FPGA architectures that house multi-core processors (CPUs) and FPGAs that offer high performance and adaptability to real-time constraints. Of the application. The main objective of my work is to develop hardware implementations of sorting algorithms on the heterogeneous CPU / FPGA architecture by using the high-level synthesis tool to generate the RTL design from the behavioral description. This step requires additional efforts on the part of the designer in order to obtain an efficient hardware implementation by using several optimizations with different use cases: software, optimized and nonoptimized hardware and for several permutations / vectors generated using the generator pf permutation based on Lehmer method. To improve performance, we calculated the runtime, standard deviation and resource number used for sorting algorithms by considering several data sizes ranging from 8 to 4096 items. Finally, we compared the performance of these algorithms. This algorithm will integrate the applications of decision support, planning the flight plan
Styles APA, Harvard, Vancouver, ISO, etc.
15

Elloumi, Yaroub. « Parallélisme des nids de boucles pour l’optimisation du temps d’exécution et de la taille du code ». Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1199/document.

Texte intégral
Résumé :
Les algorithmes des systèmes temps réels incluent de plus en plus de nids de boucles, qui sont caractérisés par un temps d’exécution important. De ce fait, plusieurs démarches de parallélisme des boucles imbriquées ont été proposées dans l’objectif de réduire leurs temps d’exécution. Ces démarches peuvent être classifiées selon deux niveaux de granularité : le parallélisme au niveau des itérations et le parallélisme au niveau des instructions. Dans le cas du deuxième niveau de granularité, les techniques visent à atteindre un parallélisme total des instructions appartenant à une même itération. Cependant, le parallélisme est contraint par les dépendances des données inter-itérations ce qui implique le décalage des instructions à travers les boucles imbriquées, provocant ainsi une augmentation du code proportionnelle au niveau du parallélisme. Par conséquent, le parallélisme total au niveau des instructions des nids de boucles engendre des implémentations avec des temps d’exécution non-optimaux et des tailles du code importantes. Les travaux de cette thèse s’intéressent à l’amélioration des stratégies de parallélisme des nids de boucles. Une première contribution consiste à proposer une nouvelle technique de parallélisme au niveau des instructions baptisée « retiming multidimensionnel décalé ». Elle vise à ordonnancer les nids de boucles avec une période de cycle minimale, sans atteindre un parallélisme total. Une deuxième contribution consiste à mettre en pratique notre technique dans le contexte de l’implémentation temps réel embarquée des nids de boucles. L’objectif est de respecter la contrainte du temps d’exécution tout en utilisant un code de taille minimale. Dans ce contexte, nous avons proposé une première démarche d’optimisation qui consiste à utiliser notre technique pour déterminer le niveau parallélisme minimal. Par la suite, nous avons décrit une deuxième démarche permettant de combiner les parallélismes au niveau des instructions et au niveau des itérations, en utilisant notre technique et le « loop striping »
The real time implementation algorithms always include nested loops which require important execution times. Thus, several nested loop parallelism techniques have been proposed with the aim of decreasing their execution times. These techniques can be classified in terms of granularity, which are the iteration level parallelism and the instruction level parallelism. In the case of the instruction level parallelism, the techniques aim to achieve a full parallelism. However, the loop carried dependencies implies shifting instructions in both side of nested loops. Consequently, these techniques provide implementations with non-optimal execution times and important code sizes, which represent limiting factors when implemented on embedded real-time systems. In this work, we are interested on enhancing the parallelism strategies of nested loops. The first contribution consists of purposing a novel instruction level parallelism technique, called “delayed multidimensional retiming”. It aims to scheduling the nested loops with the minimal cycle period, without achieving a full parallelism. The second contribution consists of employing the “delayed multidimensional retiming” when providing nested loop implementations on real time embedded systems. The aim is to respect an execution time constraint while using minimal code size. In this context, we proposed a first approach that selects the minimal instruction parallelism level allowing the execution time constraint respect. The second approach employs both instruction level parallelism and iteration level parallelism, by using the “delayed multidimensional retiming” and the “loop striping”
Styles APA, Harvard, Vancouver, ISO, etc.
16

Colombo, Constant. « Élimination de l'impact de la résilience réseau dans un transport de flux vidéo par implémentation dans une architecture SDN contrainte par l'existant ». Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0232.

Texte intégral
Résumé :
Dans les réseaux de distribution de contenu, la Qualité d'Expérience (QoE) est principalement évaluée par un indicateur de performance : la continuité de service. C'est pourquoi la robustesse des réseaux est une problématique majeure pour les opérateurs. La société TDF opère un réseau traditionnel de transport de flux audiovisuels en temps réel à l'aide de protocoles de multidiffusion. Toute panne réseau provoque cependant un temps de convergence non-nul, qui implique des pertes et des impacts sur le contenu. Ceci illustre que la continuité de service est une conséquence directe de la disponibilité de réseau. L'objectif des travaux de cette thèse est de définir une architecture pour inhiber les impacts sur le contenu lors des phases de cicatrisation du réseau. Cette architecture établit des paires d’arbres de multidiffusion redondants disjoints et dynamiques sur le réseau de transport. Les équipements de restitution pouvant exploiter cette redondance de chemins, il est possible de pallier à d'éventuelles pertes de paquet. L'essentiel des travaux porte sur le développement et l'évaluation de différents algorithmes de calcul des arbres de distribution destinés à alimenter le moteur de routage de l’architecture. La spécification des protocoles et processus de mise en œuvre sur le réseau est également abordée. L'implémentation de l'ensemble s'appuie sur une architecture de type Software Defined Networking (SDN), dans laquelle un contrôleur centralisé exploite la connaissance des performances et de la planification en bande passante pour établir et maintenir les paires d’arbres de multidiffusion
In Content Delivery Networks (CDN), Quality of Experience (QoE) provides a major performance indicator that is continuity of service. As a consequence, network robustness has become a major concern for network operators. TDF operates a traditional transport network for real-time video and audio transport through multicast. Any failure on the network causes a recovery time implying loss and an impact in the content viewing. This study's goal is to define an architecture preventing impact on the content during network healing time. This architecture computes and deploys redundant disjoint multicast trees on the transport network. As restitution equipments are able to exploit path diversity, packet loss consequences can be avoided. This work's main part is the development and evaluation of different algorithm for the computation of distribution trees, as part of the routing element of the architecture. Protocol specification and deployment process are also considered. Implementation is based on a Software Defined Networking (SDN) architecture in which a central controller uses its knowledge of the performance and bandwidth allocation to compute and maintain pairs of multicast trees
Styles APA, Harvard, Vancouver, ISO, etc.
17

Bouzelat, Amor. « Analyse des performances temporelles et de tolérance aux fautes dans la synchronisation d'horloges ». Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL090N.

Texte intégral
Résumé :
Dans les systèmes temps réel et répartis, la synchronisation de tâches fait souvent référence au temps réel. Cependant, cette synchronisation ne peut être cohérente que si tous les nœuds ont la même perception du temps. La synchronisation des horloges locales des nœuds s'impose alors pour que l'ensemble des nœuds aient une vue globale cohérente du temps qu'ils manipulent. Dans cette thèse nous nous intéressons à ce problème de synchronisation d'horloges notamment sous les aspects suivants : proposition d'une approche permettant d'étudier les structures des algorithmes de synchronisation d'horloges en utilisant les mêmes modèles. Cette partie fait suite à la thèse de J. He soutenue en 1993. Analyse des performances temporelles (la précision d'accord et l'exactitude) et de complexité des algorithmes en termes de nombre de messages. Analyse des fautes traitées par les algorithmes de synchronisation d'horloges et proposition d'une démarche d'analyse de la tolérance aux fautes dans les algorithmes de synchronisation d'horloges. Étude d'implantation des algorithmes de synchronisation d'horloges. On s'intéresse notamment aux performances obtenues en plaçant la synchronisation des horloges au niveau M. A. C. (Medium Access Control) des réseaux
Styles APA, Harvard, Vancouver, ISO, etc.
18

Nguyen, Viet Anh. « Cache-conscious off-line real-time scheduling for multi-core platforms : algorithms and implementation ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S004/document.

Texte intégral
Résumé :
Les temps avancent et les applications temps-réel deviennent de plus en plus gourmandes en ressources. Les plate-formes multi-cœurs sont apparues dans le but de satisfaire les demandes des applications en ressources, tout en réduisant la taille, le poids, et la consommation énergétique. Le challenge le plus pertinent, lors du déploiement d'un système temps-réel sur une plate-forme multi-cœur, est de garantir les contraintes temporelles des applications temps réel strict s'exécutant sur de telles plate-formes. La difficulté de ce challenge provient d'une interdépendance entre les analyses de prédictabilité temporelle. Cette interdépendance peut être figurativement liée au problème philosophique de l'œuf et de la poule, et expliqué comme suit. L'un des pré-requis des algorithmes d'ordonnancement est le Pire Temps d'Exécution (PTE) des tâches pour déterminer leur placement et leur ordre d'exécution. Mais ce PTE est lui aussi influencé par les décisions de l'ordonnanceur qui va déterminer quelles sont les tâches co-localisées ou concurrentes propageant des effets sur les caches locaux et les ressources physiquement partagées et donc le PTE. La plupart des méthodes d'analyse pour les architectures multi-cœurs supputent un seul PTE par tâche, lequel est valide pour toutes conditions d'exécutions confondues. Cette hypothèse est beaucoup trop pessimiste pour entrevoir un gain de performance sur des architectures dotées de caches locaux. Pour de telles architectures, le PTE d'une tâche est dépendant du contenu du cache au début de l'exécution de la dite tâche, qui est lui-même dépendant de la tâche exécutée avant et ainsi de suite. Dans cette thèse, nous proposons de prendre en compte des PTEs incluant les effets des caches privés sur le contexte d’exécution de chaque tâche. Nous proposons dans cette thèse deux techniques d'ordonnancement ciblant des architectures multi-cœurs équipées de caches locaux. Ces deux techniques ordonnancent une application parallèle modélisée par un graphe de tâches, et génèrent un planning statique partitionné et non-préemptif. Nous proposons une méthode optimale à base de Programmation Linéaire en Nombre Entier (PLNE), ainsi qu'une méthode de résolution par heuristique basée sur de l'ordonnancement par liste. Les résultats expérimentaux montrent que la prise en compte des effets des caches privés sur les PTE des tâches réduit significativement la longueur des ordonnancements générés, ce comparé à leur homologue ignorant les caches locaux. Afin de parfaire les résultats ainsi obtenus, nous avons réalisé l'implémentation de nos ordonnancements dirigés par le temps et conscients du cache pour un déploiement sur une machine Kalray MPPA-256, une plate-forme multi-cœur en grappes (clusters). En premier lieu, nous avons identifié les challenges réels survenant lors de ce type d'implémentation, tel que la pollution des caches, la contention induite par le partage du bus, les délais de lancement d'une tâche introduits par la présence de l'ordonnanceur, et l'absence de cohérence des caches de données. En second lieu, nous proposons des stratégies adaptées et incluant, dans la formulation PLNE, les contraintes matérielles ; ainsi qu'une méthode permettant de générer le code final de l'application. Enfin, l'évaluation expérimentale valide la correction fonctionnelle et temporelle de notre implémentation pendant laquelle nous avons pu observé le facteur le plus impactant la longueur de l'ordonnancement: la contention
Nowadays, real-time applications are more compute-intensive as more functionalities are introduced. Multi-core platforms have been released to satisfy the computing demand while reducing the size, weight, and power requirements. The most significant challenge when deploying real-time systems on multi-core platforms is to guarantee the real-time constraints of hard real-time applications on such platforms. This is caused by interdependent problems, referred to as a chicken and egg situation, which is explained as follows. Due to the effect of multi-core hardware, such as local caches and shared hardware resources, the timing behavior of tasks are strongly influenced by their execution context (i.e., co-located tasks, concurrent tasks), which are determined by scheduling strategies. Symetrically, scheduling algorithms require the Worst-Case Execution Time (WCET) of tasks as prior knowledge to determine their allocation and their execution order. Most schedulability analysis techniques for multi-core architectures assume a single WCET per task, which is valid in all execution conditions. This assumption is too pessimistic for parallel applications running on multi-core architectures with local caches. In such architectures, the WCET of a task depends on the cache contents at the beginning of its execution, itself depending on the task that was executed before the task under study. In this thesis, we address the issue by proposing scheduling algorithms that take into account context-sensitive WCETs of tasks due to the effect of private caches. We propose two scheduling techniques for multi-core architectures equipped with local caches. The two techniques schedule a parallel application modeled as a task graph, and generate a static partitioned non-preemptive schedule. We propose an optimal method, using an Integer Linear Programming (ILP) formulation, as well as a heuristic method based on list scheduling. Experimental results show that by taking into account the effect of private caches on tasks’ WCETs, the length of generated schedules are significantly reduced as compared to schedules generated by cache-unaware scheduling methods. Furthermore, we perform the implementation of time-driven cache-conscious schedules on the Kalray MPPA-256 machine, a clustered many-core platform. We first identify the practical challenges arising when implementing time-driven cache-conscious schedules on the machine, including cache pollution cause by the scheduler, shared bus contention, delay to the start time of tasks, and data cache inconsistency. We then propose our strategies including an ILP formulation for adapting cache-conscious schedules to the identified practical factors, and a method for generating the code of applications to be executed on the machine. Experimental validation shows the functional and the temporal correctness of our implementation. Additionally, shared bus contention is observed to be the most impacting factor on the length of adapted cache-conscious schedules
Styles APA, Harvard, Vancouver, ISO, etc.
19

Boizot, Nicolas. « Adaptative high-gain extended Kalman filter and applications ». Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00559107.

Texte intégral
Résumé :
The work concerns the "observability problem"--the reconstruction of a dynamic process's full state from a partially measured state-- for nonlinear dynamic systems. The Extended Kalman Filter (EKF) is a widely-used observer for such nonlinear systems. However it suffers from a lack of theoretical justifications and displays poor performance when the estimated state is far from the real state, e.g. due to large perturbations, a poor initial state estimate, etc. . . We propose a solution to these problems, the Adaptive High-Gain (EKF). Observability theory reveals the existence of special representations characterizing nonlinear systems having the observability property. Such representations are called observability normal forms. A EKF variant based on the usage of a single scalar parameter, combined with an observability normal form, leads to an observer, the High-Gain EKF, with improved performance when the estimated state is far from the actual state. Its convergence for any initial estimated state is proven. Unfortunately, and contrary to the EKF, this latter observer is very sensitive to measurement noise. Our observer combines the behaviors of the EKF and of the high-gain EKF. Our aim is to take advantage of both efficiency with respect to noise smoothing and reactivity to large estimation errors. In order to achieve this, the parameter that is the heart of the high-gain technique is made adaptive. Voila, the Adaptive High-Gain EKF. A measure of the quality of the estimation is needed in order to drive the adaptation. We propose such an index and prove the relevance of its usage. We provide a proof of convergence for the resulting observer, and the final algorithm is demonstrated via both simulations and a real-time implementation. Finally, extensions to multiple output and to continuous-discrete systems are given.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Benahmed, Sif Eddine. « Distributed Cooperative Control for DC Microgrids ». Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0056.

Texte intégral
Résumé :
Au cours des dernières années, le réseau électrique connait une transformation rapide avec la pénétration massive des unités de production renouvelables et distribuées. Le concept de microgrids (micro-réseau électrique) est un élément clés de cette transition énergétique. Ces micro-réseaux sont constitués par un ensemble de plusieurs unités de production distribuées (DGUs), d'unités de stockage (SUs) et de charges interconnectées par des lignes électriques. Un microgrid peut être installé dans plusieurs endroits, par exemple dans des maisons, des hôpitaux, des quartiers, etc. et fonctionne soit en mode connecté au réseau principale, soit en mode isolé (autonome). Les microgrids sont confrontés à plusieurs défis liés à la garantie de la stabilité, la cybersécurité, l'optimisation des coûts énergétiques, la gestion de l'énergie, la qualité de l'énergie, etc. Dans ce travail, nous concentrons notre attention sur le contrôle des microgrids à courant continu en mode de fonctionnement autonome. La principale contribution de cette thèse est l’établissement de lois de commande par retour d’état distribuées assurant un partage de courant proportionnel entre les unités de production, une régulation de la tension moyenne des lignes et un équilibrage simultané des états de charge des éléments de stockage. En partant de l'hypothèse que les agents (DGU ou SU) ont les mêmes paramètres physiques, la preuve de la convergence exponentielle et globale est donnée en l’absence d’une connaissance de la charge présente sur le réseau. La thèse est divisée en trois parties. La première partie présente le concept des microgrids, un état de l’art sur leurs stratégies de contrôle et les préliminaires mathématiques nécessaires tout au long du manuscrit. La deuxième partie constitue la contribution théorique de cette thèse et aborde la synthèse de lois de contrôle distribuées, garantissant les objectifs envisagés en l’absence d’une connaissance de la charge variable sur le réseau et même en cas de perturbation constantes au niveau de l’entrée de commande. Cette garantie est apportée en considérant trois actions intégrales distribuées de type consensus. Dans la troisième partie, les contrôleurs proposés sont évalués dans différents scénarios par le biais de simulation Matlab/Simulink et de tests Hardware-in-the-Loop (HIL) en temps réel. Les résultats montrent que les objectifs de contrôle sont atteints avec succès, ce qui illustre l'efficacité de la méthodologie de contrôle proposée
In recent years, the power grid has undergone a rapid transformation with the massive penetration of renewable and distributed generation units. The concept of microgrids is a key element of this energy transition. Microgrids are made up of a set of several distributed generation units (DGUs), storage units (SUs) and loads interconnected by power lines. A microgrid can be installed in several locations, for example in houses, hospitals, a neighborhood or village, etc., and operates either in connected mode to the main grid or in isolated (autonomous) mode. Microgrids are facing several challenges related to stability assurance, cyber-security, energy cost optimization, energy management, power quality, etc. In this work, we focus our attention on the control of islanded direct current microgrids. The main contribution is the design of a new distributed control approach to provably achieve current sharing, average voltage regulation and state-of-charge balancing simultaneously with global exponential convergence. The main tools are consensus in multi-agent systems, passivity, Lyapunov stability, linear matrix inequalities, etc. The thesis is divided into three parts. The First part presents the concept of microgrids, a literature review of their control strategies and the mathematical preliminaries required throughout the manuscript. The second part deals with the design of the proposed distributed control approach to achieve the considered objectives. The system is augmented with three distributed consensus-like integral actions, and a distributed-based static state feedback control architecture is proposed. Starting from the assumption that the agents (DGUs or SUs) have the same physical parameters, we provide proof of global exponential convergence. Moreover, the proposed control approach is distributed, i.e., each agent exchange relative information with only its neighbors through sparse communication networks. The proposed controllers do not need any information about the parameters of the power lines neither the topology of the microgrid. The control objectives are reached despite the unknown load variation and constant disturbances. In the third part, the proposed distributed controllers are assessed in different scenarios through Matlab/Simulink simulation and real-time Hardware-in-the-Loop experiment. The results show that the control objectives are successfully achieved, illustrating the effectiveness of the proposed control methodology
Styles APA, Harvard, Vancouver, ISO, etc.
21

Murilo, André. « Contributions à la Commande Prédictive Non Linéaire pour les Systèmes à Dynamiques Rapides ». Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00442847.

Texte intégral
Résumé :
Cette thèse adresse le problème de la commande prédictive non linéaire (CPNL) appliquée aux systèmes à dynamiques rapides. Pour ces systèmes, le temps de calcul disponible peut s'avérer insuffisant pour la résolution des problèmes d'optimisation fortement non linéaires et contraints. Dans ce contexte, l'approche paramétrique utilisée dans cette thèse peut s'avérer un choix pertinent pour résoudre ce type de problèmes. Deux exemples d'application sont présentés pour souligner les avantages de la méthode paramétrique: le circuit d'air d'un moteur diesel et le système des pendules jumeaux sur un chariot. Une validation expérimentale sur les deux procédés est aussi proposée pour montrer l'efficacité des solutions proposées.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie