To see the other types of publications on this topic, follow the link: Systèmes adaptatifs (technologie).

Dissertations / Theses on the topic 'Systèmes adaptatifs (technologie)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes adaptatifs (technologie).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Arrouf, Mhamed. "Optimisation multicritère appliquée aux systèmes mécaniques adaptatifs." Besançon, 2004. http://www.theses.fr/2004BESA2007.

Full text
Abstract:
Le travail de cette thèse consiste à étendre les méthodes d'optimisation multicritère à la conception des structures actives, et plus particulièrement à l'emplacement des capteurs et des actionneurs sur une structure mécanique. Les systèmes mécaniques adaptatifs font appel à des régulateurs LQG (Linear Quadratic Gaussien). Les principales matrices du contrôle optimal LQG, sont déterminées par minimisation d'un critère quadratique mais avec en plus des contraintes qui sont prises en compte au cours d'un processus itératif (exemple : l'utilisation des actionneurs au maximum de leurs possibilités conduit à modifier itérativement des rapports spécifiques des pondérations). Nous avons proposé une stratégie originale pour l'optimisation de la matrice de gain du régulateur, en tenant compte des contraintes sur la commande des actionneurs et sur les sorties. Puisqu'il s'agit d'un problème d'optimisation sous contrainte, nous avons choisi un algorithme de recherche de point-selles de type Uzawa. Le choix et le positionnement des actionneurs et des capteurs se fait en fonction bien sûr des objectifs à atteindre mais peut être guidé par quelques idées simples d'une base de connaissance. Nous avons développé une méthode de positionnement optimal des actionneurs basée sur l'approche logique floue. En effet, l'approche logique floue permet la prise en compte de connaissances expertes ainsi que l'introduction facile de règles expertes supplémentaires. Enfin, nous avons indiqué des pistes pour l'emplacement du premier capteur sur la structure active en se basant sur les normes énergétiques de perturbabilités et d'observabilités. Ces travaux ont été appliqués à l'étude d'un panneau en aluminium
The aim of this work is to extend multi-criterion optimisation methods to active structure design, and particularly to the placement of sensors and actuators on a mechanical structure. Adaptive mechanical systems use LQG regulators (Linear Quadratic Gaussien). The main matrices are determined by minimisation of a quadratic criterion and under consideration of some constraints that are used during the iterative process (ex: the use of actuators at the maximum of their possibilities leads to iteratively modify the specific ratio of weight factors). We propose an original strategy for the optimisation of the regulator gain matrix by considering constraints on the actuator control and outputs. Since the problem is an optimisation under constraints, UZAWA algorithm was used to the search of saddle-point. The choice and placement of actuators and sensors are of course made according to the fixed objectives, but it is also leaded by taking into account simple ideas given by an expert system knowledge. Fuzzy logic approach was used to optimise actuators placement. This approach allows the consideration of knowledge given by expert as well as the easy introduction of additional expert rules. Finally, ways to the first sensor placement on the active structure are shown using energetic standards for perturbability and observability. This work was applied to the study of an aluminium panel
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Bras Florent. "Contributions à l'asservissement visuel de véhicules aériens autonomes." Nice, 2010. http://www.theses.fr/2010NICE4110.

Full text
Abstract:
L’asservissement visuel est une technique de commande reposant sur des mesures issues d’une caméra. Cette technique est apparue à la fin des années 80 pour contrôler des robots mobiles ou des bras manipulateurs. Depuis peu, l’asservissement visuel est appliqué aux engins volants, pour lesquels ce type de contrôle a un fort potentiel opérationnel. Dans cette thèse, nous nous intéressons à la conception d’asservissements visuels pour deux types d’engins volants : les minidrones à voilures tournantes et les avions. Nous essayons autant que possible de spécifier le problème en termes de régulation dans l’image en prenant en compte des contraintes forte sur la nature des capteurs utilisés. Ainsi nous considérons uniquement les capteurs embarqués, autonomes, et dont la qualité est compatible d’un asservissement précis. Pour cela, nous proposons des lois d’asservissement visuels adaptés à la dynamique des engins considérés, à leurs structures de contrôle et à leurs systèmes de mesures. Pour les minidrones à voilures tournantes, une série de lois de commande est proposée pour stabiliser l’engin relativement à une cible plane dont quelques amers sont détectés en temps réel. Ces commandes ont la particularité de ne pas nécessiter de mesure de vitesse de translation. Caractéristique intéressante puisque cette grandeur est particulièrement difficile à mesurer sans GPS. L’un des algorithmes a été validé en vol sur la plateforme Hovereye de Bertin Technologies, il s’agissait, à notre connaissance du premier asservissement visuel basé image, réalisé en intérieur, sur un minidrone. Pour les engins à voilures fixes une nouvelle technique d’atterrissage autonome basée sur la détection des bords de la piste est proposée. Cette technique est basée image et prend en compte les spécificités du vol d’un avion ainsi qu’une estimation de la vitesse du vent. La validation de cette approche est réalisée sur un simulateur complexe incluant la chaîne de traitement d’image. Enfin, nous avons cherché de nouvelles applications à l’asservissement visuel basé image d’engins à voilures fixes. Une loi de commande permettant une stabilisation précise sur une orbite d’observation a ainsi été synthétisée. Elle repose sur la détection d’un unique amer et du flux optique de translation. Des simulations illustrent les performances de ce dernier algorithme
The visual servo control technology is based on measurements form a camera. This technique appeared in the late 80’s to control mobile robots or manipulators. Recently, visual servoing is applied to flying vehicles, for which this type of control has a strong operational potential. In this thesis, we focus on the design of visual servoing for two types of flying vectors : the VTOL minidrones and fixed-wing aircrafts. We try wherever possible to specify the problem in terms of regulation in the picture by taking into account the limitations of the sensors used. Thus we consider only the onboard sensors autonomous, and whose quality is consistent with a the considered visual servoing tasks. For this, we propose visual servoing laws adapted to the considered systems intheir control structures and their measurement systems. For VTOL minidrones, a series of control laws is proposed to stabilize the vehicle with respect to a relativity flat target which some landmarks are detected in real time. These commands have the distinction of not requiring measurements of the speed of translation. This characteristic is especially interesting, since this variable is particularly difficult to measure without GPS. One of the algorithms has been, validated in fight ion the platform. HoverEye developed by Bertin Technologies, it was, to our knowledge the first image based visual servoing, conducted indoors on a minidrones. For fixed-wing aircrafts, a next autonomous landing technique based on the detection of runway’s edges is proposed. This technique is image based and takes into account the specificities of aircraft flight dynamics. Moreover a specific estimate of cross-wind is proposed. Validation of this approach is performed on a complex simulator which includes images processing. Finally, we sought new applications in image based visual servoing for fixed-wing aircrafts. A control law for precise stabilization on observation orbit has been synthesized. It is based on the detection of a single landmark and translational optical flow. Simulations illustrate the performance of that algorithm
APA, Harvard, Vancouver, ISO, and other styles
3

Feki, Mohamed Ali. "An ontology based context aware modelling and reasoning to enhance human environment interaction." Evry, Institut national des télécommunications, 2007. http://www.theses.fr/2007TELE0008.

Full text
Abstract:
La convergence récente de l'informatique ambiante et des systèmes sensibles au contexte a généré un intérêt important pour les applications qui exploitent des aspects de l'environnement contextuel pour améliorer l'interaction implicite de l'utilisateur, fournir des services adaptables, présenter de l'information pertinente, et gérer des mécanismes d'adaptation. Cependant, en raison du manque et d'absence des solutions techniques génériques capables de couvrir la continuité de l'interaction entre plusieurs espaces d'interaction, la compléxité des besoins, et l'hétérogéneité des dispositifs d'interaction, il demeure très difficile le développement des applications sensibles au contexte et les développeurs doivent traiter éventuellement beaucoup de verrous liées à la représentation, à la détection, à l'interprétation, au stockage, au raisonnement et l'adaptation du contexte. Afin de remédier à cette situation, il y a un besoin de mieux comprendre le processus de conception lié aux applications sensibles au contexte, l'architecture supportant les différentes phases de traitement de contexte, et améliorer l'abstraction de la programmation afin de soulager le prototypage des applications. Cette recherche s'est concentrée sur l'infrastructure logicielle (Framework) permettant les développements d'applications sensibles au contexte. Cette dissertation présente une analyse de l'ensemble des conditions pour le développement des applications contextuelles. Cette analyse nous a permis de proposer un modèle conceptuel basé sur les ontologies sémantiques, une infrastructure logicielle pour le traitement du contexte et un ensemble de bibliothèques. La recherche rapportée ici étudie : comment le contexte peut être acquis, distribué, et utilisé et comment ca permet d'affecter l'interaction homme environnement
The recent convergence of ubiquitous computing and context-aware computing has seen a considerable rise in interest that exploit aspects of the contextual environment to enhance implicit user interaction, offer services, present information, tailor application behavior or trigger adaptation. However, as a result of the lack of generic mechanisms for supporting context-awareness, context-aware applications remain very difficult to build and developers must deal with a wide range of issues related to representing, sensing, aggregating, storing, querying and reasoning of context. In order to remedy this situation, there is a need for better understanding of the design process associated with context-aware applications, architectural support for the entire context processing flow, and improved programming abstractions that ease the prototyping of applications. This research in context-aware computing has focused on the architectural support for context-aware application development. This dissertation presents a set of requirements for context-aware applications, based on wich we designed and implemented our architectural support, including an ontology-based context model, a context-aware architecture (namely Context Aware Explorer) and a set of programming abstractions. This research reported here is investigating : how context can be acquired, ditributed, and used and how it changes human computer interaction in Ubiquitous Computing. The Context Aware Explorer includes common steps required to build context applications (acquisition, interpretation, presentation, reasoning and application), thus it ensures the adaptation situated at the level of User Environment Interaction. The case study, Assistive Environment, validates our work, and illustrates, in concrete form, the process and issues involved in the design of context-aware software. Finally, the research presents an overview of how Ubiquitous Computing systems can be evaluated. Different techniques are assessed, and the concept of probing users and developers with prototypes is presented
APA, Harvard, Vancouver, ISO, and other styles
4

Rebaud, Bettina. "Evolution vers des architectures de systèmes intégrés auto-adaptatives et tolérantes aux variations technologiques et environnementales." Montpellier 2, 2009. http://www.theses.fr/2009MON20228.

Full text
Abstract:
Avec les tendances « More Moore » et basse consommation, il devient de plus en plus délicat d'optimiser ou seulement prédire les performances finales des circuits numériques. En effet, les phénomènes de variabilité et les difficultés de modélisation des comportements des transistors constituent un frein tandis que nous approchons des dimensions nanométriques. Les méthodes de conception actuelles utilisent généralement des marges de garde afin de prévenir les incertitudes et garantir la fonctionnalité du circuit. Mais ces marges reflètent de moins en moins la réalité du circuit, empêchant dès lors les optimisations et baissant le rendement des circuits. De nombreuses solutions très hétéroclites existent afin de surmonter ces difficultés, se résumant en deux objectifs distincts et complémentaires : l'augmentation de la robustesse aux incertitudes durant la phase de conception, notamment grâce à de meilleures analyses des performances ; et l'adaptation post-silicium du circuit à son état technologique et à son environnement. Dans ce travail de thèse, nous avons approché ces deux concepts : en implantant (1) une méthodologie d'analyse statistique SSTA (Statistical Static Timing Analysis) nous permettant d'examiner finement les effets des variations dans le respect des contraintes temporelles ; et en proposant (2) un système de diagnostic basé sur l'observabilité de chemins critiques, autorisant ainsi la mise en œuvre de techniques adaptatives. Celles-ci permettent de s'ajuster au plus près des caractéristiques réelles du circuit en rognant sur les marges de conception, et d'améliorer les performances en fréquence et consommation, de même que le rendement
With the « More Moore » and low power trends, optimizing or only well predicting the final performances of digital circuits become more and more difficult. Indeed, variability and hardness to accurately model transistor behavior impede the dimension scaling benefits. Current design methods generally use guard margins to prevent from the incertitude generated by these limits and to guarantee functional yield. But as we go in the nanometer era, the margin use is not efficient anymore, because of an increasing over-design, limiting optimizations and decreasing yield. Very different numerous solutions exist in order to overcome these troubles, following two main goals which are dissimilar but also complementary: increasing the robustness to uncertainty during the design levels, notably thanks to better performance analysis; and adapting the final circuit to its real process corner and to its environment. In this work, we considered these two directions: the first one thanks to (1) an implementation of a specific methodology called SSTA (Statistical Static Timing Analysis), allowing to perform statistical analysis on timing performances; this methodology allows us to accurately observe process variation effects on delays; and the second one in proposing (2) an efficient diagnostic system based on the in situ critical path monitoring concept and allowing all adaptive solution implementations. The latter answer to variability issue allows to know the real characteristics of the circuit, to crop design margins, to improve power consumption and frequency performances, and even to increase yield
APA, Harvard, Vancouver, ISO, and other styles
5

Belaggoun, Amel. "Adaptability and reconfiguration of automotive embedded systems." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066252.

Full text
Abstract:
Les véhicules modernes sont de plus en plus informatisés pour satisfaire les exigences de sureté les plus strictes et pour fournir de meilleures expériences de conduite. Par conséquent, le nombre d'unités de contrôle électronique (ECU) dans les véhicules modernes a augmenté de façon continue au cours des dernières années. En outre, les applications à calcul complexe offrent une demande de calcul plus élevée sur les ECU et ont des contraintes de temps-réel dures et souples, d'où le besoin d’une approche unifiée traitant les deux types de contraintes. Les architectures multi-cœur permettent d'intégrer plusieurs niveaux de criticité de sureté sur la même plate-forme. De telles applications ont été conçues à l'aide d'approches statiques; cependant, les approches dites statiques ne sont plus réalisables dans des environnements très dynamiques en raison de la complexité croissante et les contraintes de coûts strictes, d’où la nécessite des solutions plus souples. Cela signifie que, pour faire face aux environnements dynamiques, un système automobile doit être adaptatif; c'est-à-dire qu'il doit pouvoir adapter sa structure et / ou son comportement à l'exécution en réponse à des changements fréquents dans son environnement. Ces nouvelles exigences ne peuvent être confrontées aux approches actuelles des systèmes et logiciels automobiles. Ainsi, une nouvelle conception de l'architecture électrique / électronique (E / E) d'un véhicule doit être développé. Récemment, l'industrie automobile a convenu de changer la plate-forme AUTOSAR actuelle en "AUTOSAR Adaptive Platform". Cette plate-forme est développée par le consortium AUTOSAR en tant que couche supplémentaire de la plate-forme classique. Il s'agit d'une étude de faisabilité continue basée sur le système d'exploitation POSIX qui utilise une communication orientée service pour intégrer les applications dans le système à tout moment. L'idée principale de cette thèse est de développer de nouveaux concepts d'architecture basés sur l'adaptation pour répondre aux besoins d'une nouvelle architecture E / E pour les véhicules entièrement électriques (VEF) concernant la sureté, la fiabilité et la rentabilité, et les intégrer à AUTOSAR. Nous définissons l'architecture ASLA (Adaptive System Level in AUTOSAR), qui est un cadre qui fournit une solution adaptative pour AUTOSAR. ASLA intègre des fonctions de reconfiguration au niveau des tâches telles que l'addition, la suppression et la migration des tâches dans AUTOSAR. La principale différence entre ASLA et la plate-forme Adaptive AUTOSAR est que ASLA permet d'attribuer des fonctions à criticité mixtes sur le même ECU ainsi que des adaptations bornées temps-réel, tant dis que Adaptive AUTOSAR sépare les fonctions temps réel critiques (fonctionnant sur la plate-forme classique) des fonctions temps réel non critiques (fonctionnant sur la plate-forme adaptative). Pour évaluer la validité de notre architecture proposée, nous fournissons une implémentation prototype de notre architecture ASLA et nous évaluons sa performance à travers des expériences
Modern vehicles have become increasingly computerized to satisfy the more strict safety requirements and to provide better driving experiences. Therefore, the number of electronic control units (ECUs) in modern vehicles has continuously increased in the last few decades. In addition, advanced applications put higher computational demand on ECUs and have both hard and soft timing constraints, hence a unified approach handling both constraints is required. Moreover, economic pressures and multi-core architectures are driving the integration of several levels of safety-criticality onto the same platform. Such applications have been traditionally designed using static approaches; however, static approaches are no longer feasible in highly dynamic environments due to increasing complexity and tight cost constraints, and more flexible solutions are required. This means that, to cope with dynamic environments, an automotive system must be adaptive; that is, it must be able to adapt its structure and/or behaviour at runtime in response to frequent changes in its environment. These new requirements cannot be faced by the current state-of-the-art approaches of automotive software systems. Instead, a new design of the overall Electric/Electronic (E/E) architecture of a vehicle needs to be developed. Recently, the automotive industry agreed upon changing the current AUTOSAR platform to the “AUTOSAR Adaptive Platform”. This platform is being developed by the AUTOSAR consortium as an additional product to the current AUTOSAR classic platform. This is an ongoing feasibility study based on the POSIX operating system and uses service-oriented communication to integrate applications into the system at any desired time. The main idea of this thesis is to develop novel architecture concepts based on adaptation to address the needs of a new E/E architecture for Fully Electric Vehicles (FEVs) regarding safety, reliability and cost-efficiency, and integrate these in AUTOSAR. We define the ASLA (Adaptive System Level in AUTOSAR) architecture, which is a framework that provides an adaptive solution for AUTOSAR. ASLA incorporates tasks-level reconfiguration features such as addition, deletion and migration of tasks in AUTOSAR. The main difference between ASLA and the Adaptive AUTOSAR platform is that ASLA enables the allocation of mixed critical functions on the same ECU as well as time-bound adaptations while adaptive AUTOSAR separates critical, hard real-time functions (running on the classic platform) from non-critical/soft-real-time functions (running on the adaptive platform). To assess the validity of our proposed architecture, we provide an early prototype implementation of ASLA and evaluate its performance through experiments
APA, Harvard, Vancouver, ISO, and other styles
6

Saidi, Taofik. "Architectures matérielles pour la technologie W-CDMA étendue aux systèmes multi-antennes." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/tsaidi.pdf.

Full text
Abstract:
Depuis une dizaine d'années, l'avènement des systèmes multi-antennes (ou MIMO) pour les communications sans fil, mobiles ou fixes, a révolutionné les possibilités offertes pour de nombreux domaines d'application des télécommunications. La disposition de plusieurs antennes de part et d'autre du lien augmente considérablement la capacité des systèmes sans fil. Cependant, les algorithmes numériques à mettre en \oe uvre pour réaliser ces systèmes sont autrement complexes et constituent un challenge quant à la définition d'architectures matérielles performantes. L'objectif du travail présent repose précisément sur la définition optimale de solutions architecturales, dans un contexte CDMA, pour contrer cette problématique. Le premier aspect de ce travail porte sur une étude approfondie des algorithmes spatio-temporels et des méthodes de conception en vue d'une implantation matérielle efficace. De nombreux schémas de détection sont proposés dans la littérature et sont applicables suivant trois critères qui sont : la qualité de service, le débit binaire et la complexité algorithmique. Cette dernière constitue une contrainte forte pour une mise en application à faible coût de terminaux mobiles intégrant ces applications. Aussi, il est nécessaire de disposer d'outils performants pour simuler, évaluer et affiner (prototypage rapide) ces nouveaux systèmes, candidats probables pour les télécommunications de quatrième génération. Le second aspect concerne la réalisation d'un transcepteur multi-antennes sans codage de canal, intégrant la technologie d'accès multiple par répartition de codes dans le cas d'un canal large bande. Un système mono-antenne WCDMA, généralisable à un nombre quelconque d'antennes, a été intégré et simulé au sein de la plate-forme de prototypage rapide Lyrtech. L'architecture développée intègre les principaux modules du traitement en bande de base, à savoir le filtrage de Nyquist, la détection des multiples trajets suivie de l'étape de détection. Le prototype MIMO-WCDMA développé est caractérisé par sa flexibilité suivant le nombre de voies entrantes, le format d'entrée des échantillons, les caractéristiques du canal sans fil et la technologie ciblée (ASIC, FPGA). Le troisième aspect se veut plus prospectif en détaillant de nouveaux mécanismes pour réduire le coût matériel des systèmes multi-antennes. Le principe d'allocation adaptative de la virgule fixe est présenté dans le but d'adapter le codage des données suivant les caractéristiques du canal sans fil et de minimiser en conséquence la complexité du circuit. D'autre part, le concept d'architectures adaptatives est proposé afin de minimiser l'énergie consommée au sein d'un système embarqué suivant le contexte d'application
Over the last ten years, multi-antenna systems (MIMO) for mobile and fixed wireless communications have revolutionized the possibilities offered for numerous telecommunication application domains. Using multiple antennas at both ends of the link considerably increases the capacity of wireless systems. However, the digital algorithms needed to realize these systems are complex and constitute a challenge in order to define powerful hardware architectures. The goal of the present work centers specifically on the optimal definition of architectural solutions to combat this problem in a CDMA context. The first aspect of this work is a deepened study of space-time algorithms and design methods with regards to an efficient hardware implementation. Numerous detection schemes are proposed in the litterature and are applicable following three criteria : quality of service, binary throughput and algorithmic complexity. The latter constitutes a strong limitation for a low cost implementation of mobiles including these applications. Thus, it is necessary to use powerful tools to simulate, evaluate and rapidly prototype these new systems which constitute likely candidates for fourth generation telecommunication systems. The second aspect is the realization of an uncoded multi-antenna transceiver, integrating CDMA in a wideband channel case. A WCDMA mono-antenna system, generalized to any antenna array, has been integrated and simulated on the Lyrtech rapid prototyping platform. The developped architecture integrates the main baseband processing modules, such as Nyquist filtering, multiple path detection and detection itself. The MIMO-WCDMA prototype is characterized by its flexibility with regards to the number of inputs, format of samples, characteristics of the wireless channel and the targeted technology (ASIC, FPGA). The third aspect is more prospective since it introduces new methods to reduce the hardware cost of multi-antenna systems. The principle of dynamic allocation of the fixed point format is presented with the goal of adapting the data encoding according to the wireless channel's characteristics and consequently minimizing the circuit's complexity. Also, the concept of adaptive architectures is proposed to reduce the power consumption in an embedded system according to application context
APA, Harvard, Vancouver, ISO, and other styles
7

Rouissi, Firas. "Contribution à l'analyse des propriétés d'observabilité et de diagnosticabilité des systèmes complexes. Application à une éolienne." Rouen, 2013. http://www.theses.fr/2013ROUES032.

Full text
Abstract:
Les travaux de recherche de cette thèse sont consacrés à l'analyse de la tolérance aux fautes des systèmes d'instrumentation (capteurs et actionneurs). En effet, on s'est intéressé particulièrement à l'étude des propriétés structurelles des dispositifs d'estimation d'état, de commande et de diagnostic de défauts. Ces propriétés dépendent du nombre de capteurs/actionneurs, de leurs précisions et de leurs positions sur le système. Pour ce faire, on a proposé en premier temps une représentation graphique pour analyser et évaluer la capacité du système à tolérer les défauts tout en préservant des propriétés structurelles souhaitées. En deuxième temps, une nouvelle approche, basée sur des nouveaux critères d'évaluation de l'observabilité, de la commandabilité et de la diagnosticabilité, a été proposée pour concevoir une architecture tolérante aux défauts. Les différentes approches proposées ont été appliquées sur un système éolien pour l'étude de la capacité de ce type de système à la tolérance aux fautes.
APA, Harvard, Vancouver, ISO, and other styles
8

Atig, Asma. "Sur la commande neuronale adaptative des systèmes non linéraires." Le Havre, 2012. http://www.theses.fr/2012LEHA0004.

Full text
Abstract:
Ce travail traite de la commande des systèmes non linéaires carrés multivariables à dynamiques inconnues ou incertaines. Le schéma de commande neuronale adaptative retenu est formé d'un émulateur et d'un correcteur dont les paramètres découplés sont adaptés en temps réel à l'aide de l'algorithme "Real Time Recurrent Learning". Des nouvelles méthodes d'adaptation des paramètres du correcteur, basées sur l'étude de la stabilité au sens de Lyapunov, sont proposées pour assurer un comportement stable des systèmes non linéaires perturbés. La minimisation des critères multi-objectifs est aussi considérée pour ajuster le facteur d'adaptation du correcteur. L'apport en performances des approches développées est évalué par des simulations numériques et par des applications en temps réel sur des systèmes non linéraires perturbés
This work deals with the control of non linear square MIMO systems with unknown or uncertain dynamics. The retained adaptative neural control scheme consists of an emulator and a controller. The emulator and controller parameters are decoupled and adjusted in real time using the Real Time Recurrent Learning algorithm. New adptation approaches for the controller parameters, based on the Lyapunov stability study, are proposed to ensure a stable behavior of disturbed nonlinear systems. Minimization of multi-objective criteria is also considered to adjust the controller parameter. Performances of the proposed approaches were evaluated by numerical simulations and by real time applications on disturbed nonlinear systems
APA, Harvard, Vancouver, ISO, and other styles
9

Pley, Julien. "Protocoles d'accord pour la gestion d'une grille de calcul dynamique." Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/pley.pdf.

Full text
Abstract:
Nous présentons un système de gestion de grilles de calcul dynamique où les ressources fédérées sont mises à disposition par différentes institutions. Au sein d'un domaine, les ressources peuvent interagir de façon synchrone. Les interactions entre ressources de domaines distincts sont asynchrones. Une machine ou un domaine peut joindre et quitter la grille à tout moment, de manière délibérée, ou suite à une défaillance. Nous proposons une solution tolérante aux défaillances qui exploite cette structure hiérarchique pour résoudre les problèmes d'évolution de la composition de la grille et de placement des tâches avec équilibrage de charge. Chaque service est la composition d'un protocole synchrone et d'un protocole d'accord asynchrone qui est toujours une déclinaison du problème fondamental du Consensus. Nous définissons l'insensibilité aux suspicions erronées, une métrique inédite pour comparer des protocoles de Consensus utilisant des détecteurs de défaillances "Losange S"
We present a middleware for dynamic grids where the federated resources are provided by different institutions. Within a domain, the resources interact in a synchronous manner. Interactions between resources belonging to different domains are asynchronous. Every machine or domain can join or leave the grid at any time; due to failures, or on purpose. We propose a fault-tolerant solution which takes advantage of this hierarchical structure to solve the grid membership problem and the load-balanced task allocation problem. Each service is the composition of a synchronous protocol and an asynchronous agreement protocol which is always a variation of the fundamental Consensus problem. We define the "insensitivity to erroneous suspicions"; a new metric to compare different Consensus protocols based on Diamond S failure detectors
APA, Harvard, Vancouver, ISO, and other styles
10

Dorie, Laurent. "Modélisation et évaluation de performances en vue de la conception conjointe des systèmes reconfigurables : application à la radio logicielle." Nantes, 2007. http://www.theses.fr/2007NANT2107.

Full text
Abstract:
L’évolution rapide du contexte des systèmes embarqués conduit à des dispositifs de plus en plus complexes, susceptibles de supporter plusieurs modes de fonctionnement et différents standards. Au sein de ces systèmes, la reconfiguration apparaît comme une solution pour faire face à une telle évolution, et ce tout en respectant les contraintes d’embarquabilité. Cette propriété désigne le fait qu’un système puisse modifier son comportement. Elle se répercute aussi bien au niveau de l'application supportée que de la solution technologique considérée. De nouvelles méthodes et outils sont nécessaires pour prendre en compte la propriété de reconfiguration. Ainsi, l’objectif de cette thèse est de proposer des modèles de haut niveau d’abstraction en vue d’améliorer la conception conjointe des systèmes reconfigurables. La première partie de cette thèse s’est intéressée aux mécanismes de reconfiguration des systèmes de radiocommunication. Elle a conduit à la proposition de différentes modélisations visant à faciliter l’estimation de performances des systèmes de Radio Logicielle. La deuxième partie de cette thèse s’est focalisée sur les architectures des systèmes reconfigurables. Elle a permis d’aboutir à une modélisation capable de décrire l’impact du caractère reconfigurable des plates-formes multiprocesseurs hétérogènes sur le comportement et les performances des systèmes. L’intérêt des modélisations obtenues est illustré à travers une étude portant sur un cas concret de fonctionnement de systèmes de radiocommunication reconfigurables
The fast evolution of embedded system context leads to more and more complexity into electronic products that can support many ways of working and different standards. In these systems, the reconfiguration is a solution to face such evolution and also respect embedded constraints. This property points out that a system is able to modify its behaviour. Such property concerns just as well the application development as the technology design. New approaches and tools are needed to take into account this reconfiguration property. Thus, the goal of this thesis is to provide high abstraction level models in order to improve the co-design of reconfigurable systems. The first part of this thesis interested in reconfiguration mechanisms of radiocommunication systems. It led to the definition of modelling in order to describe the reconfigurable mechanisms of radio communication application. The second part of this thesis focused on the reconfigurable architectures. It led to a modelling able to describe the reconfigurable impact of heterogeneous multi-processor platforms on system behaviour and performances. The interest of these modelling is illustrated by a study which deals with a typical case of Software Radio
APA, Harvard, Vancouver, ISO, and other styles
11

Darouich, Mehdi. "Reefs : une architecture reconfigurable pour la stéréovision embarquée en contexte temps-réel." Rennes 1, 2010. http://www.theses.fr/2010REN1S151.

Full text
Abstract:
La stéréovision permet d’extraire la profondeur dans une scène par l’analyse de deux images prises de points de vue différents. Dans le domaine de la vision par ordinateur, cette technique permet une mesure directe et précise de la distance des objets observés. Les systèmes d’aide à la conduite (Advanced Driver Assistance Systems, ADAS) intègrent plusieurs applications nécessitant une connaissance précise de l’environnement du véhicule et peuvent ainsi bénéficier de la stéréovision. Les traitements mis en œuvre s’effectuent en temps-réel et nécessitent un niveau de performance très important et donc l’utilisation d’accélérateurs matériels. De plus, la solution matérielle mise en place doit posséder un niveau de flexibilité suffisant pour permettre l’adaptation du traitement à la situation rencontrée. Enfin, le système devant être embarqué, la solution matérielle choisie doit avoir un coût en surface limité. Cette thèse a pour objectif la conception d’une architecture de calcul pour la stéréovision qui offre un niveau de performance répondant aux contraintes des ADAS et un niveau de flexibilité suffisant pour fournir des cartes de profondeur adaptées aux diverses applications. Une architecture hétérogène reconfigurable, nommée REEFS (Reconfigurable Embedded Engine for Flexible Stereovision), est conçue et dimensionnée pour offrir le meilleur compromis entre flexibilité, performance et coût en surface
Stereovision allows the extraction of depth information from several images taken from different points of view. In computer vision, stereovision is used to evaluate directly and accurately the distance of objects. In Advanced Driver Assistance Systems (ADAS), number of applications needs an accurate knowledge of the surrounding and can thus benefit from 3D information provided by stereovision. Involved tasks are done in real-time and require a high level of performance that can be provided by hardware accelerators. Moreover, as people safety is affected, the reliability of results is critical. As a result, the hardware solution has to be flexible enough to allow this adaptation. Finally, as the embedded context is considered, the silicon area of the chosen hardware solution must be limited. The purpose of this thesis is to design a processing architecture for stereovision that provides a performance level answering ADAS requirements and a level of flexibility high enough to generate depth maps adapted to various applications. A heterogeneous reconfigurable architecture, named REEFS (Reconfigurable Embedded Engine for Flexible Stereovision), is designed and scaled to answer ADAS requirements and to provide the best trade-off between flexibility, performance and silicon area
APA, Harvard, Vancouver, ISO, and other styles
12

Azar, Céline. "On the design of a distributed adaptive manycore architecture for embedded systems." Lorient, 2012. http://www.theses.fr/2012LORIS268.

Full text
Abstract:
Des défis de conception ont émergé récemment à différents niveaux: l'augmentation du nombre de processeurs sur puce au niveau matériel, la complexité des modèles de programmation parallèles, et les exigences dynamiques des applications actuelles. Face à cette évolution, la thèse propose une architecture distribuée adaptative nommée CEDAR (Configurable Embedded Distributed ARchitecture) dont les principaux atouts sont la scalabilité, la flexibilité et la simplicité. La plateforme CEDAR est une matrice homogène de processeurs RISC, chacun connecté à ses quatre proches voisins via des buffers, partagés par les processeurs adjacents. Aucun contrôle global n'existe, celui-ci étant réparti entre les cœurs. Deux versions sont conçues pour la plateforme, avec un modèle de programmation simple. Une version logicielle, CEDAR-S (CEDAR-Software), est l'implémentation de base où les processeurs adjacents sont reliés via des buffers partagés. Un co-processeur, nommé DMC (Direct Management of Communications), est ajouté dans la version CEDAR-H (CEDAR-Hardware), afin d'optimiser le protocole de routage. Les DMCs sont interconnectés en mesh 2D. Deux nouveaux concepts sont proposés afin de gérer l'adaptabilité de CEDAR. En premier, un algorithme de routage bio-inspiré, dynamique et distribué gère le routage de manière non-supervisée, et est indépendant de la position physique des tâches communicantes. Le deuxième concept consiste en la migration distribuée et dynamique de tâches afin de répondre aux besoins du système et des applications. CEDAR présente des performances élevées avec sa stratégie de routage optimisée, par rapport à l'état de l'art des réseaux sur puce. Le coût de la migration est évalué et des protocoles adéquats sont présentés. CEDAR s'avère être un design prometteur pour les architectures manycœurs
Chip design challenges emerged lately at many levels: the increase of the number of cores at the hardware stage, the complexity of the parallel programming models at the software level, and the dynamic requirements of current applications. Facing this evolution, the PhD thesis aims to design a distributed adaptive manycore architecture, named CEDAR (Configurable Embedded Distributed ARchitecture), which main assets are scalability, flexibility and simplicity. The CEDAR platform is an array of homogeneous, small footprint, RISC processors, each connected to its four nearest neighbors. No global control exists, yet it is distributed among the cores. Two versions are designed for the platform, along with a user-familiar programming model. A software version, CEDAR-S, is the basic implementation where adjacent cores are connected to each other via shared buffers. A co-processor called DMC (Direct Management of Communications) is added in the CEDAR-H version, to optimize the routing protocol. The DMCs are interconnected in a mesh fashion. Two novel concepts are proposed to enhance the adaptiveness of CEDAR. First, a distributed dynamic routing strategy, based on a bio-inspired algorithm, handles routing in a non-supervised fashion, and is independent of the physical placement of communicating tasks. The second concept presents dynamic distributed task migration in response to several system and application requirements. Results show that CEDAR scores high performances with its optimized routing strategy, compared to state-of-art networks. The migration cost is evaluated and adequate protocols are presented. CEDAR is shown to be a promising design concept for future manycores
APA, Harvard, Vancouver, ISO, and other styles
13

Belabbas, Aïssame. "Conception d'un système de contrôle-commande reconfigurable pour l'assistance technique aux personnes handicapées." Lorient, 2007. http://www.theses.fr/2007LORIS090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Zerkaoui, Salem. "Commande neuronale adaptative des systèmes non linéaires." Le Havre, 2007. http://www.theses.fr/2007LEHA0010.

Full text
Abstract:
Dans cette thèse nous proposons un Système de Commande Neuronale Indirecte (SCNI) auto-adaptatif, stable, et robuste pour commander une large variété de systèmes linéaires ou non linéaires, monovariables ou multivariables dont le modèle mathématique est mal connu ou pouvant varier dans le temps. Le SCNI, comporte le modèle instantané et le correcteur ainsi qu’un algorithme autonome d'adaptation des paramètres. Les paramètres du SCNI sont initialisés à zéro assurant ainsi des performances indépendantes de la phase d'initialisation. L’analyse et la synthèse de la stabilité du système en boucle fermée, la stabilité robuste et la robustesse vis-à-vis du bruit de mesure ont été étudiées à l’aide de l’approche de Lyapunov. La commande développée a été testée sur le simulateur du réacteur chimique du Tennessee Eastman et sur un bras manipulateur de robotique médicale. La structure de commande proposée, simple et flexible, s'avère utilisable en pratique pour de nombreuses applications
The main contribution of this work is to propose a robust stable self-adaptive InDirect neural Network Control "IDNC" to control a broad variety of unknown linear, nonlinear, SISO and MIMO systems. The control scheme is made of an adaptive instantaneous neural model, a neural controller and an on-line parameter updating law. The IDNC parameters start at zero initial conditions which ensure that the performances do not depend on the initialization phase. Closed loop performances as well as sufficient conditions for asymptotic stability and robustness are derived from the Lyapunov approach. The simulations and experimental tests are carried out in order to validate the performances of the proposed approach. In particular, our contribution is used for the control of the Tennessee Eastman Challenge Process and a medical robot. Also, the proposed structure can easily be implemented in several practical applications
APA, Harvard, Vancouver, ISO, and other styles
15

Enembreck, Fabricio. "Contribution à la conception d'agents assistants personnels adaptatifs." Compiègne, 2003. http://www.theses.fr/2003COMP1478.

Full text
Abstract:
Dans ce mémoire nous étudions la conception des agents assistants personnels. Nous avons développé plusieurs mécanismes qui permettent de matérialiser les représentations conceptuelles proposées par Ramos (2000). Nous mettons l'accent sur l'aspect adaptatif de ces représentations, ce qui permet à l'assistant de personnaliser ses actions en fonction du maître. Nous nous sommes aperçus que la plupart des méthodes d'apprentissage couramment utilisées ne sont pas vraiment adaptées aux agents assistants personnels. Nous avons donc développé notre propre méthode d'apprentissage (ELA) qui a été testée et dont les résultats sont significatifs. Nos travaux s'achèvent sur une étude des modèles permettant d'intégrer les différentes représentations développées à travers differents prototypes. Nous avons conçu un modèle générique de système multi-agent personnalisé (SMAP) qui résout les problèmes' inhérents à l'architecture centralisée de Ramos et conserve l'aspect de personnalisation
Ln this thesis we study the developpement of personnal assistant agents. We have developped some mecanisms allowing the implementation of the conceptual models proposed by Ramos (2000). We stress the importance of the adaptativity of these models to the user's actions. During the developpement of the work we perceived that common methods of adaptation are not good enough for adaptative personal assistant agents. Thus, we introduced a new leaming approach (ELA) that has been evaluated and whose results are quite good. Our work ends up with a study allowing the integration of the different representations developed in the prototypes. We have designed a multi-agent representation for managing the different dynamic representations of the user with distributed leaming agents. This representation is modeled by a generic personalized multi-agent system architecture (SMAP) solving the problems introduced by Ramos' centralized architecture and allowing personalization
APA, Harvard, Vancouver, ISO, and other styles
16

Garcia, Samuel. "Architecture reconfigurable dynamiquement a grain fin pour le support d'un système d'exploitation temps réel." Paris 6, 2012. http://www.theses.fr/2012PA066495.

Full text
Abstract:
Les applications pressenties dans le futur partagent quatre caractéristiques majeures. Elles nécessitent une capacité de calcul accrue, nécessitent la prise en compte du temps réel, représentent un pas important en terme de complexité en comparaison avec les applications d'aujourd'hui, et devront être capables de supporter la nature dynamique du monde réel. Une architecture reconfigurable dynamiquement à grain fin (FGDRA) peut être vue comme une nouvelle évolution des FPGA d'aujourd'hui, visant à supporter des applications temps réel à la fois complexes et fortement dynamiques, tout en fournissant une puissance de calcul potentielle comparable due à la possibilité d'optimiser l'architecture applicative à un niveau de granularité très fin. Pour rendre ce type d'architecture utilisable pour les développeurs applicatifs, la complexité doit être abstraite par le biais d'un système d'exploitation et d'une suite d'outils adéquats. Cette combinaison formera une bonne solution pour supporter les applications du futur. Cette thèse présente une architecture de FGDRA innovante appelée OLLAF. Cette architecture répond à la fois aux aspect techniques liés à la reconfiguration dynamique, et aux problèmes pratiques des développeurs applicatifs. L'ensemble de l'architecture est conçue pour fonctionner en symbiose avec un système d'exploitation. Les études présentées sont plus particulièrement axées sur les mécanismes de gestion des tâches matérielles dans un système préemptif. Nous présentons d'abord nos travaux essayant d'implémenter de tels mécanismes en utilisant des FPGA existant et montrons que ces architectures existantes doivent évoluer pour pouvoir supporter efficacement un système d'exploitation dans un contexte temps réel hautement dynamique. L'architecture OLLAF est expliquée en mettant l'accent sur les mécanismes de gestion des tâches matérielles. Nous présentons ensuite deux études qui prouvent que cette approche constitue un gain important en comparaison avec les plates-formes existantes en terme d'overhead du au système d'exploitation et ce même dans des cas où la reconfiguration dynamique n'est utilisée que pour le partage de la ressource de calcul. Pour les cas temps réel fortement dynamiques, nous avons montré que non seulement cela permet de diminuer l'overhead, mais l'architecture OLLAF permet également de supporter des cas qui ne peuvent pas être envisagés avec les composants actuels
Most of anticipated future applications share four major characteristics. They might all require an increased computing capacity, they will implies to take real time into account, they represent a big step in terms of complexity compared with todays typical applications, and will have to deal with the dynamic nature of the real physical world. Fine grained dynamically reconfigurable architecture (FGDRA) can be seen as next evolution of today's FPGA, aiming at dealing with very dynamic and complex real time applications while providing comparable potential computing power due to the possibility to fine tune execution architecture at a fine grain level. To make this kind of devices usable for real application designer complexity has to be abstracted by an operating system layer and adequate tool set. This combination would form an adequate solution to support future applications. This thesis exposes an innovative FGDRA architecture called OLLAF. This architecture answer both technical issues on reconfigurable computing and practical problematics of application designers. The whole architecture is designed to work in symbiosis with an operating system. Studies presented here will more particularly focus on hardware task management mechanisms in a preemptive system. We will first present our work toward trying to implement such mechanisms using existing FPGA and show that those existing architectures have to evolve to efficiently support an operating system in a highly dynamic real time situation. The OLLAF architecture will then be explained and the hardware task management mechanism will be highlighted. We then present two studies that prove this approach to constitute a huge gain compared with existing platforms in terms of resulting operating system overhead even for static application cases where dynamical reconfiguration is used only for computing resource sharing. For highly dynamical real time cases we show that not only it could lower the overhead, but it will also support cases that existing devices just cannot support
APA, Harvard, Vancouver, ISO, and other styles
17

Hoinville, Thierry. "Evolution de contrôleurs neuronaux plastiques : de la locomotion adaptée vers la locomotion adaptative." Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0022.

Full text
Abstract:
Evolutionary robotics mainly focused on evolving neural controllers that are structurally and parametrically fixed, for the control of robots that can roll, walk, swim or fly. This approach led to the design of controllers that are well adapted to constant environments, but not adaptive to varying conditions. To tackle this issue, some researchers suggest to evolve plastic, rather than fixed, neural controllers. Our work follows this way and aims to design plastic neural controllers for legged robots subject to external perturbations, as well as possible mechanical damages. First, we propose a review of the main known forms of neuronal plasticity and their modeling. This review is mostly intended to the roboticists audience. Then, we draw a state of the art of evolving plastic neural controllers and criticize the biological realism of the developed models. On this background, we provide a first contribution centered on thedilemma of evolving both flexible and stable neural controllers. Thus,we suggest to use homeostatic constraints to stabilize CTRNNs incorporating adaptive synapses. We applied this method with success to the locomotion of a one-legged robot, confronted to an external perturbation. Finally, we present a second work based on the knowledge acquired on the biological central pattern generators (CPG) and their plasticity. In practice, we evolve neural relaxation oscillators subject to neuromodulation, for the adaptive locomotion of a modular myriapod robot, that could experience leg amputations
Les recherches menées en robotique évolutionniste se sont avant tout focalisées sur l'évolution de contrôleurs neuronaux structurellement et paramétriquement figés, pour la locomotion de robots qui roulent, marchent, nagent ou volent. Cette démarche a permis la conception de contrôleurs bien adaptés à des environnements constants, mais non adaptatifs aux variations de ceux-ci. Pour y remédier, certains roboticiens ont suggéré de faire évoluer des neuro-contrôleurs non plus figés, mais plastiques. Notre approche s'inscrit dans ce revirement et vise à ce que les robots à pattes puissent adapter leur locomotion aussi bien aux perturbations extérieures, qu'aux éventuelles détériorations de leurs structures mécaniques. Nous proposons en premier lieu une revue des phénomènes de plasticiténeuronale et de leur modélisation, destinée essentiellement aux roboticiens. Nous dressons ensuite un état de l'art de l'évolution de neuro-contrôleurs plastiques et critiquons la plausibilité biologique des modèles développés. Notre première contribution s'inspire des travaux de la robotique évolutionniste et aborde le dilemme de l'évolution de contrôleurs à la fois flexibles et stables. Ainsi, nous employons des contraintes homéostatiques pour stabiliser la plasticité de contrôleurs assurant la locomotion d'un robot monopode confronté à une perturbation freinant son avancée. Notre deuxième contribution s'inspire des connaissances acquises sur les générateurs centraux de pattern (CPG) et leur plasticité. Ainsi,nous proposons l'évolution d'oscillateurs à relaxation soumis à neuromodulation pour la locomotion adaptative d'un robot myriapode confronté à d'éventuelles amputations de pattes
APA, Harvard, Vancouver, ISO, and other styles
18

Charra, Olivier. "Conception de noyaux de systèmes embarqués reconfigurables." Grenoble 1, 2004. http://www.theses.fr/2004GRE10047.

Full text
Abstract:
La perspective de l'émergence d'un environnement global du traitement de l'information dans lequel la plupart des objets physiques qui nous entourent seront équipés de processeurs, dotés de capacités de communication et interconnectés par le biais de réseaux divers, nous oblige à repenser les systèmes informatiques. Aux systèmes traditionnels, lourds, monolithiques, et peu évolutifs, nous devons préférer les systèmes légers, flexibles, et reconfigurables. Cette thèse présente une architecture permettant la conception et le développement de noyaux de systèmes d'exploitation flexibles et reconfigurables à destination du monde de l'embarqué
The vision of the emergence of a global environment for the information management where most of the physical object around us will be equipped with processors, communication capabilities and interconnected through various networks forces us to redesign the computing systems. Instead of heavy, monolithic and non-evolutive systems, we must design light, flexible and reconfigurable systems. This work presents a new architecture allowing the conception and development of flexible and reconfigurable operating system kernels for embedded systems
APA, Harvard, Vancouver, ISO, and other styles
19

Guillet, Sébastien. "Modélisation et contrôle de la reconfiguration : application aux systèmes embarqués dynamiquement reconfigurables." Lorient, 2012. http://www.theses.fr/2012LORIS275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Bruguier, Florent. "Méthodes de caractérisation et de surveillance des variations technologiques et environnementales pour systèmes reconfigurables adaptatifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00965377.

Full text
Abstract:
Les circuits modernes sont de plus en plus sensibles aux variations technologiques et environnementales qui n'ont plus seulement un effet global sur les circuits mais aussi un effet local sur ceux-ci. Dans ce contexte, les composants reprogrammables que sont les FPGA représentent un support technologique intéressant. En effet, ces composants permettent d'adapter l'implantation physique du système grâce à une simple reconfiguration du circuit. C'est pourquoi, dans ce manuscrit, nous présentons un flot d'adaptation complet visant à compenser les variations des circuits reconfigurables. Pour cela, une étude de toutes les phases de conception des capteurs numériques est réalisée. Nous proposons ensuite une approche originale et unique de caractérisation basée sur l'analyse électromagnétique. Il est notamment montré que cette approche permet de se défaire des biais de mesure engendrés par les méthodes de mesure directe. L'utilisation conjointe des capteurs et de cette méthode d'analyse permet une caractérisation fine et précise des variations technologiques de n'importe quel type de circuit FPGA. Enfin, la cartographie issue de la phase de caractérisation permet ensuite de calibrer les capteurs pour une utilisation en ligne. Nous utilisons donc ensuite ces capteurs pour le monitoring dynamique d'un système MPSOC.
APA, Harvard, Vancouver, ISO, and other styles
21

Movahedi, Zeinab. "Une architecture autonomique pour les réseaux sans-fil : proposition et méthodologie d'évaluation." Paris 6, 2011. http://www.theses.fr/2011PA066537.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Greff, Florian. "SDRN : réseau maillé temps réel dynamique défini par logiciel." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0076.

Full text
Abstract:
Dans le cadre d'une thèse CIFRE conjointe entre le Loria et Thales Research & Technology, nous étudions un nouveau type de réseau maillé embarqué temps réel. La mise en réseau maillé des composants des systèmes embarqués concilie les contraintes temps réel des applications avec leurs besoins croissants en termes de bande passante et collaboration. La pluralité des chemins de communication résulte en de meilleures propriétés de flexibilité, résilience, passage à l'échelle et répartition de charge. Cependant, ceci nécessite d'être capable d'allouer dynamiquement les ressources réseau en fonction des besoins des applications. Notre approche consiste à permettre aux applications de faire des requêtes de flux temps réel à l'exécution, puis allouer dynamiquement les ressources correspondant aux besoins en communication. A cette fin, nous avons conçu l'architecture Software-Defined Real-time Networking (SDRN). Elle aborde en même temps les problématiques d'isolation des flux, analyse temporelle, routage, tolérance aux fautes, ainsi que les interfaces avec les couches applicatives et les couches basses du système. Elle est également modulaire, c'est-à-dire que certaines parties de l'architecture peuvent être remplacées sans remettre en cause les autres modules. Enfin, elle a été validée par une implémentation sur plateforme matérielle RapidIO. Ce document restitue les travaux de recherche sur SDRN. Il s'intéresse également à la problématique de l'expérimentation sur les réseaux embarqués et propose une approche originale d'expérimentation, ERICA. Cette approche facilite la mise en place d'expérimentations mêlant aspects réels et simulés. ERICA génère les fichiers nécessaires à la mise en place du scénario défini dans une interface graphique haut niveau. Elle permet ainsi au chercheur d'appliquer une réflexion haut niveau sur ses expérimentations et de réutiliser les couches communes à plusieurs scénarios d'expérimentation
We are studying a new kind of embedded real-time mesh network. Mesh networking of the components of embedded systems reconciles their real-time constraints with the new application needs in terms of bandwidth and tight interactions. The plurality of communication paths results in increased flexibility, resilience, scalability and load balancing characteristics. However, this requires the ability to dynamically allocate network resource with respect to the needs of running applications. Our approach is to allow applications to make online real-time flow resource requests and consequently allot network resources according to these requirements. To this end, we have designed the Software-Defined Real-time Networking (SDRN) architecture. It addresses flow isolation, timing analysis, routing, fault tolerance, as well as the interfaces with the application layer and the lower layers of the system. It also allows any module to be replaced without interfering with the remainder of the architecture. It has been validated via an implementation on an in-silicon RapidIO platform. This thesis describes our research on the SDRN architecture. It also proposes an original method for experimenting on embedded networks, ERICA. The ERICA framework automatically generates all what is needed to conduct a network experiment in a selected environment (such as a simulator or a testbed), with both physical and simulated aspects. Hence, it allows the researcher to perform a high-level thinking of the whole experimentation process and to reuse applications and experiment designs from an experimentation stack to another
APA, Harvard, Vancouver, ISO, and other styles
23

Debroucke, Romain. "Développements de capacités variables en technologie silicium pour les applications RF et mmW." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10135.

Full text
Abstract:
La multiplication des normes et des standards de communications permet de nos jours d’élargir l'éventail des services pour chaque consommateur. Si cette prolifération des normes est un plus non négligeable pour les utilisateurs, elle engendre une complexité accrue des systèmes d’émission/réception que ce soit en RF (3G, 4G), ou en mmW (W-HDMI, imagerie, radar, capteurs). Ces systèmes Tx/Rx doivent être capables de nos jours de supporter plusieurs bandes de fréquence (téléphonie tri-bandes), ou de générer des fonctions agiles, on parle alors de systèmes reconfigurables. C’est dans ce contexte que se placent ces travaux de thèse dont l’objectif est d’aborder la problématique du développement de capacités variables aux fréquences radios et millimétriques.Le premier chapitre intitulé “Emergence du besoin de capacités non linéaires haute performance en technologie silicium” identifie les limitations de l’offre usuelle de capacités variables à STMicroelectronics. Le second chapitre « Caractérisation de capacité à l’échelle attoFarad : Le Challenge de la mesure haute impédance » discutera de la problématique de la caractérisation de très faibles capacités, dites attoFarad, utilisées majoritairement dans les oscillateurs à commande digital (D.C.O.). Ces capacités sont de nos jours difficilement modélisables étant donnés les problèmes de caractérisation qu’elles posent avec les solutions standards. Nous discuterons d’une nouvelle méthode de caractérisation haute fréquence permettant l’extraction de capacité de 50aF de 1 à 10GHz.Le troisième chapitre intitulé « De l’analogique au digital, développements de capacités variables jusqu’aux fréquences millimétriques en technologie CMOS et BiCMOS » s’intéressera à l’amélioration des facteurs de mérite de la capacité variable ;(rapport de capacité, fréquence maximale d’utilisation …) ; à travers l’optimisation de solution existante et la conception de nouvelles architectures digitales.Enfin, le dernier chapitre « L’évaluation des performances aux travers des circuits millimétriques référents» exposera quant à lui, la conception, la réalisation et la caractérisation de deux fonctions accordables, un déphaseur et un générateur d’impédance en bande mmW.En conclusion, l’ensemble de ces travaux de thèse fournit de nouvelles solutions pour la conception de circuits RF et mmW. Ils ont permis d’élargir l’offre de capacités variables disponible chez STMicroelectronics en technologies avancées mais aussi d’investiguer et de valider un nouveau concept de caractérisation indispensable à ces développements
Multiplication of standards and communication protocols allows nowadays a wider range of services for each consumer. If this multiplication of standards is more significant for users, it creates an increased complexity of Rx/Tx communication modules both in RF (3G, 4G), or mmW (W-HDMI, imaging, radar, sensors ) range. These systems Rx/Tx must be able nowadays to support multiple frequency bands (tri-band mobilephone as an example), or agile functions generation, it is called reconfigurable systems. In this context, that this thesis work taking place which aims to address the challenge of high performances tunable capacitances development in RF and mmW range. The first chapter entitled "Emergence of the need for high performances non linear capacitances in silicon technology" identifies the limitations of usual tunable capacitances offer at STMicroelectronics. The second chapter " AttoFarad capacitance characterization: The Challenge of high impedance measurement" discuss the problem of characterization of very small capacity, called attoFarad, used mainly in digital controlled oscillator (DCO). Nowadays these aF capacitance are very difficult to modelize regarding problems of standard measurement methods. We will discuss of a new method for high frequency characteriziation with a relative precision of 50aF 1 to 10GHz. The third chapter entitled "From analog to digital, developments of tunable capacitances up to millimeter frequencies in CMOS and BiCMOS technologies," will focus on figures of merit improvements of the capacitance (tuning ration, resonant frequency, linear law...) through optimization of existing solution (MOS varactor) and the design of new digital architectures. The final chapter "Performances evaluation through referent mmW circuits " exhibit, the design, realization and characterization of two agile functions, a phase shifter and a in-situ tuner, both in the mmW range. To conclude, all these thesis work provide new solutions for the design of RF and mmW circuits. They have extended the tunable capacitances offer at STMicroelectronics in advanced technologie nodes but also to investigate and validate a new concept of characterization necessary for all of these developments
APA, Harvard, Vancouver, ISO, and other styles
24

Dirani, Mariana. "Resource allocation and son based radio resource management in cellular and wireless networks." Paris 6, 2011. http://www.theses.fr/2011PA066480.

Full text
Abstract:
La bonne gestion des ressources radio est un élément clé pour offrir une bonne Qualité de Service (QdS) pour les utilisateurs tout en assurant la meilleure gestion des ressources du réseau. Nous évaluons la performance de certaines fonctionnalités de gestion de ressources, à savoir l’ordonnancement et l'accès MAC et dans une deuxième étape nous proposons des méthodes de coordination de la puissance dans les liens ascendants et descendants des systèmes LTE. Nous proposons des mécanismes de coordination des interférences dans les systèmes LTE dans le cadre de l’auto-optimisation des réseaux (Self-Optimizing Networks). Le problème est modélisé par un système multi-agent effectuant un apprentissage par renforcement. La théorie de l’apprentissage de système d’inférence floue permet d’apprendre, à partir de l’expérience les décisions optimales correspondant à chaque état du système. La logique floue permet de gérer l’état continu du système. Chaque station de base est alors un agent responsable de modéliser son propre état et l’état des stations voisines et de calculer des récompenses tout au long du processus d’apprentissage afin d’apprendre la politique optimale de façon distribuée mais coopérative. Dans le sens descendant, le but est de décider la quantité de puissance allouée par spectre, dans un contexte de réutilisation totale du spectre. Dans le sens montant, nous proposons une optimisation dynamique du mécanisme de compensation partielle de puissance, Fractional Power Control, standardisé par le 3GPP. L’algorithme de gestion de puissance est adapté pour l’optimisation des performances dans ce contexte sujet à des variations très rapides et chaotiques.
APA, Harvard, Vancouver, ISO, and other styles
25

Bouguelia, Mohamed-Rafik. "Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034.

Full text
Abstract:
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
APA, Harvard, Vancouver, ISO, and other styles
26

Petit, Dorine. "Unification des stratégies de contrôle de réseau embarqué temps-réel reconfigurable." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0164.

Full text
Abstract:
Les travaux de thèse s’inscrivent dans le cadre d’une relation pérenne que le CRAN entretient depuis 10 ans avec le CNES. Il s’agit d’étudier la pertinence du remplacement des réseaux de type bus actuellement embarqués dans les lanceurs européens, par des architectures Ethernet commutées standard sur étagères. Les précédents travaux ont permis de qualifier Ethernet sur 2 items de qualité de service : temps-réel et disponibilité. Nous nous attachons à poursuivre ce travail en validant ces premiers résultats sur une plateforme, reproduction à l’échelle de l’architecture qui sera embarquée dans les lanceurs. Ensuite, nous travaillons sur un item original de qualité de service, exigence typique du spatial, appelé observabilité. L’objectif est de rejouer tout vol, après coup, au sol, sachant que le lanceur n’y revient pas, et que l’architecture est commutée, conférant au réseau une dimension multi-domaines d’observation non synchronisés. La synthèse de toutes les captures impose donc de garantir que l’ordonnancement et la fraîcheur des informations de contrôle du lanceur véhiculées dans les trames soient en cohérence avec le fonctionnement applicatif spécifié, et que ce qui est observé soit conforme à ce qui s’est réellement passé. Enfin, nous proposons un sur-échantillonnage réglé dynamiquement pour profiter de la bande passante disponible sans remettre en cause les exigences temps-réel, de reconfiguration et d’observabilité
This thesis is part of a long-lasting relationship between the CRAN and the CNES since 10 years. This involves studying the pertinence of replacing the buses currently embedded in European’s launchers, by off-the-shelf switched standard Ethernet architecture. Previous works qualified Ethernet regarding two quality of service items: real time and reliability. We continue this work by validating these first results on a platform, true scale architecture reproduction which will be embedded in launchers. Then, we work on an original quality of service item, typical of the spatial requirements, called observability. The objective is to re-play the whole flight, afterwards, on ground, knowing that the launcher will not come back, and the architecture is segmented, conferring to the network the dimension of non synchronized multi-domains of observation. The synthesis of all the captures implies to guarantee that the order and the freshness of launcher control information are consistent with the specified applicative operation, and that what is observed is compliant to what really happened. Finally, we propose an over-sampling which is dynamically regulated in order to benefit from the available bandwidth without disturbing real time, reconfiguration and observability requirements
APA, Harvard, Vancouver, ISO, and other styles
27

Marques, Nicolas. "Méthodologie et architecture adaptative pour le placement efficace de tâches matérielles de tailles variables sur des partitions reconfigurables." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0139.

Full text
Abstract:
Les architectures reconfigurables à base de FPGA sont capables de fournir des solutions adéquates pour plusieurs applications vu qu'elles permettent de modifier le comportement d'une partie du FPGA pendant que le reste du circuit continue de s'exécuter normalement. Ces architectures, malgré leurs progrès, souffrent encore de leur manque d'adaptabilité fasse à des applications constituées de tâches matérielles de taille différente. Cette hétérogénéité peut entraîner de mauvais placements conduisant à une utilisation sous-optimale des ressources et par conséquent une diminution des performances du système. La contribution de cette thèse porte sur la problématique du placement des tâches matérielles de tailles différentes et de la génération efficace des régions reconfigurables. Une méthodologie et une couche intermédiaire entre le FPGA et l'application sont proposées pour permettre le placement efficace des tâches matérielles de tailles différentes sur des partitions reconfigurables de taille prédéfinie. Pour valider la méthode, on propose une architecture basée sur l'utilisation de la reconfiguration partielle afin d'adapter le transcodage d'un format de compression vidéo à un autre de manière souple et efficace. Une étude sur le partitionnement de la région reconfigurable pour les tâches matérielles de l'encodeur entropique (CAVLC / VLC) est proposée afin de montrer l'apport du partitionnement. Puis une évaluation du gain obtenu et du surcoût de la méthode est présentée
FPGA-based reconfigurable architectures can deliver appropriate solutions for several applications as they allow for changing the performance of a part of the FPGA while the rest of the circuit continues to run normally. These architectures, despite their improvements, still suffer from their lack of adaptability when confronted with applications consisting of variable size material tasks. This heterogeneity may cause wrong placements leading to a sub-optimal use of resources and therefore a decrease in the system performances. The contribution of this thesis focuses on the problematic of variable size material task placement and reconfigurable region effective generation. A methodology and an intermediate layer between the FPGA and the application are proposed to allow for the effective placement of variable size material tasks on reconfigurable partitions of a predefined size. To approve the method, we suggest an architecture based on the use of partial reconfiguration in order to adapt the transcoding of one video compression format to another in a flexible and effective way. A study on the reconfigurable region partitioning for the entropy encoder material tasks (CAVLC / VLC) is proposed in order to show the contribution of partitioning. Then an assessment of the gain obtained and of the method additional costs is submitted
APA, Harvard, Vancouver, ISO, and other styles
28

Leduc, Guilain. "Performance et sécurité d'une Blockchain auto-adaptative et innovante." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0220.

Full text
Abstract:
La recherche sur les cadres applicatifs de la blockchain propose rarement une évaluation de performances. Cette thèse propose une méthodologie complète pour aider les intégrateurs logiciels à mieux comprendre et mesurer l'influence des paramètres de configuration sur la qualité globale des performances du service à long terme. Afin d'améliorer les performances, le nouveau protocole de consensus adaptatif Sabine (Self-Adaptive BlockchaIn coNsEnsus) est proposé afin de modifier dynamiquement l'un de ces paramètres dans le cadre du consensus PBFT. Le paramètre de configuration de ce consensus est le nombre de validateurs impliqués et résulte d'un compromis entre sécurité et performance. Le protocole Sabine vient donc maximiser ce nombre sous réserve que le débit de sortie corresponde au débit d'entrée. Sabine est évaluée et validée dans des contextes réels, dont les résultats montrent que Sabine a une erreur relative acceptable entre les débits de transaction demandée et engagée. Deux nouveaux algorithmes de sélection des validateurs sont proposés et renversent le paradigme aléatoire des protocoles actuels pour choisir les nœuds amenant à de meilleures performances. Le premier se base sur un système de réputation récompensant les nœuds les plus rapides. Le second sélectionne les nœuds les plus proches en imposant un roulement continu de la sélection. Ces deux algorithmes ont été simulés et leurs impacts sur la décentralisation discutés. Cette sélection, associée avec Sabine, permet d'améliorer la sécurité en laissant plus de marge au système pour augmenter le nombre de validateurs. Ces différents travaux ouvrent la voie à des chaînes plus réactives, avec moins de latence et plus de débit
Research on blockchain application frameworks rarely offers performance evaluation. This thesis proposes a comprehensive methodology to help software integrators better understand and measure the influence of configuration parameters on the overall quality of long-term service performance. In order to improve performance, the new adaptive consensus protocol Sabine (Self-Adaptive BlockchaIn coNsEnsus) is proposed to dynamically modify one of these parameters in the PBFT consensus. The configuration parameter of this consensus is the number of validators involved and result of a trade-off between security and performance. The Sabine protocol maximises this number provided that the output rate matches the input rate. Sabine is evaluated and validated in real-world settings, the results of which show that Sabine has an acceptable relative error between the requested and committed transaction rates. Two new validator selection algorithms are proposed that reverse the random paradigm of current protocols to select the nodes leading to better performance. The first is based on a reputation system that rewards the fastest nodes. The second selects the closest nodes by imposing a continuous rotation of the selection. These two algorithms have been simulated and their impact on decentralisation discussed. This selection, associated with Sabine, improves security by giving the system more margin to increase the number of validators. This work opens the way to more reactive chains, with less latency and more throughput
APA, Harvard, Vancouver, ISO, and other styles
29

Hamdoun, Safa. "Algorithmes adaptatifs et efficaces de partage de ressources radio pour les communications de type MTC : cas de coexistence H2H/M2M." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1096/document.

Full text
Abstract:
L'Internet des objets (IoT) fait référence à la croissance continue des réseaux d'objets du quotidien qui s'interconnectent entre eux ou avec d'autres systèmes Internet via les capteurs sans fil qui y sont attachés. L'IoT promet un futur où des milliards de terminaux intelligents seront connectés et gérés via une gamme de réseaux de communication et de serveurs basés dans le cloud, permettant ainsi l'apparition d'un large spectre d’applications de surveillance et de contrôle. Les communications machine-à-machine (M2M), également connues sous le nom de “Machine-Type-Communication” (MTC) par les réseaux cellulaires, constituent une technologie clé permettant d'activer partiellement l'IoT. Les communications M2M sont un nouveau paradigme qui facilite la connectivité omniprésente entre une myriade de dispositifs sans ou avec intervention humaine limitée. La demande croissante de connectivité a mis au défi les opérateurs de réseau à concevoir de nouveaux algorithmes d'allocation de ressources radio pour gérer l'échelle massive des communications MTC.Contrairement aux technologies d'accès radio traditionnelles, adaptées aux communications usuelles, dites de humain-à-humain (H2H), l'objectif de cette thèse est de développer de nouvelles techniques de partage de ressources radio efficaces et adaptatives pour les MTC dans un scénario de coexistence H2H/M2M. Dans le cadre de cette thèse, notre première contribution consiste en la proposition d'un système d'accès multiple adapté pour résoudre à la fois les problèmes liés à la rareté des ressources radio, à la scalabilité et à la surcharge de la station de base (BS). À cette fin, nous proposons de décomposer les opérations de communication en les groupant. Ainsi, les MTC correspondent à des communications locales en liaison montante entre des dispositifs connus sous le nom de “Machine-Type-Device” (MTD), et un cluster head appelé “Machine-Type- Head” (MTH). Nous examinons ainsi la nécessité d'agréger la technologie M2M et le “dispositif-à-dispositif” (D2D), considéré comme composante majeure des réseaux cellulaires évolutifs du futur. Nous modélisons le problème de partage de ressources radio entre les MTDs et les utilisateurs H2H sous la forme d’un graphe biparti et développons un algorithme de partage de ressources radio pour MTC basé sur les graphes afin d’atténuer les interférences co-canal et donc améliorer l'efficacité du réseau. En outre, une solution semi-distribuée de faible complexité est développée pour atténuer la surcharge de communication d'une solution centralisée que nous proposons également. Ensuite, dans une deuxième contribution de cette thèse, nous nous intéressons à examiner comment les dispositifs M2M peuvent partager les ressources radio disponibles sans pour autant dégrader les performances des applications H2H. Par conséquent, nous proposons un système de partage de ressources efficace en terme de spectre et de puissance. Nous introduisons à l'algorithme de partage de ressources radio basé sur les graphes une fonction adaptative de contrôle de puissance utilisant l'un des deux mécanismes suivants : un contrôleur proportionnel intégral dérivé (PID) et la logique floue. Enfin, comme troisième contribution de cette thèse, nous développons un système de partage de ressources radio efficace en terme de puissance et entièrement distribué pour les MTC. Nous utilisons la théorie des jeux et modélisons le problème de partage de ressources par un jeu hybride où les dispositifs M2M rivalisent pour les ressources radio et basculent de façon opportuniste entre un jeu non-coopératif et un jeu coopératif. Une évaluation des performances des solutions dérivées dans le contexte des réseaux LTE est menée. Les résultats des simulations montrent que les solutions proposées ont un impact significatif sur la maximisation de l'efficacité de l'utilisation du spectre, l'atténuation de l'effet négatif sur les services H2H et la prolongation de la durée de vie des batteries des MTDs
The Internet-of-Things (IoT) refers to the ever-growing network of everyday objects that interconnect to each other or to other Internet-enabled systems via wireless sensors attached to them. IoT envisions a future where billions of smart devices will be connected and managed through a range of communication networks and cloud-based servers, enabling a variety of monitoring and control applications. Machine-to-Machine (M2M) communications supported by cellular networks, also known as Machine-Type-Communications (MTC) acts as a key technology for partially enabling IoT. M2M communications is a new technology paradigm that facilitates the ubiquitous connectivity between a myriad of devices without requiring human intervention. The surge in the demand for connectivity has further challenged network operators to design novel radio resource allocation algorithms at affordable costs to handle the massive scale of MTC.Different from current radio access technologies tailored to traditional Human- to-Human (H2H) communications, the goal of this thesis is to provide novel efficient and adaptive radio resource sharing schemes for MTC under a H2H/M2M coexistence scenario. We first provide a suitable multiple access scheme to address the joint spectrum scarcity, scalability and Base Station (BS) overload issues. Toward this end, we design a group-based operation where MTC corresponds to local uplink communications between Machine-Type-Devices (MTDs), which represent a specific type of devices that do not rely on the presence of a human interface, and a Machine-Type-Head (MTH). This latter plays the role of a cluster head that relays the information to the BS. We thus address the need to aggregate M2M and Device-to-Device (D2D) technology, as one of the major components of the future evolving cellular networks. Having said that, we first propose in this thesis to model the radio resource sharing problem between MTDs and H2H users as a bipartite graph and develop a novel interference-aware graph-based radio resource sharing algorithm for MTC so as to mitigate the co-channel interference and thus enhance network efficiency. Moreover, low-complexity semi-distributed solution is investigated to alleviate the communication overhead of a centralized solution that we propose as well. Then, as a second contribution, we examine how M2M devices can share the available radio resources in cellular networks with no or limited impact on existing H2H services. Consequently, we propose a joint spectrally and power efficient radio resource sharing scheme. Convinced by the strength of the bipartite graph modeling for the resource sharing problem between H2H users and M2M devices, we empower the graph-based radio resource sharing algorithm with a novel adaptive power control feature using one of two following mechanisms: the Proportional Integral Derivative (PID) controller and the fuzzy logic. Finally, in our third contribution of this thesis, we develop a power efficient and fully-distributed radio resource sharing framework for MTC underlying cellular networks. We use game theory and model the resource sharing problem as an efficient hybrid-game where M2M devices compete for radio resources and switch opportunistically, as M2M devices are selfish in nature, between non-cooperative and cooperative games. The different derived solutions are extended to existing cellular networks, and extensive simulation studies in the context of LTE are conducted. The various simulation results show that the proposed solutions can significantly increase the efficiency of the spectrum usage, mitigate the negative effect on H2H services and save the battery life of M2M devices
APA, Harvard, Vancouver, ISO, and other styles
30

Peralta, Cortes Héctor. "Création de critères d'évaluation de dispositifs d'assistance pour personnes en situation de handicap." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0026.

Full text
Abstract:
Le projet PLEIA regroupe au sein d’une plateforme méthodologique un ensemble d’outils logiciels pour l’aide à l’évaluation d’interfaces pour des personnes en situation de handicap. Cette plateforme est constituée de différents modules : PLEIA Eveil fonctionnel est destiné à l’étude des interactions entre un périphe��rique d’interface et un système d’éveil (jouets ou robots), PLEIA Exercice est destiné aux interfaces de pointage (ordinateurs personnels), PLEIA fonctionnel est destiné aux interfaces de commande pour des aides techniques (fauteuils roulants électriques). Ces modules, destinés aux thérapeutes, permet de créer un environnement d’évaluation basique ou écologique. Il s’agit de pouvoir créer des tests, intégrant la configuration des interfaces, ainsi qu’une analyse objective du comportement réalisé par la personne évaluée. Cette thèse est centré sur l’outil PLEIA Exercice et l'évaluation associée. Des résultats expérimentaux sont présentés sur des enfants myopathes
PLEIA project is a methodological platform of different software tools for the evaluation of different interfaces for persons with disabilities. This platform is based on different modules: PLEIA Functional awaking which is used to study the interactions between the interfaces peripheral and awaking systems (toys and robots), PLEIA Exercise which is based on the pointing devices for a personal computer, PLEIA Functional which is oriented to the command interfaces for the technical aids such as electric powered wheelchair. These modules are used by occupational therapists to create a basic evaluation. It tries to create tests with the integration of interfaces and performance analysis of patients. This thesis is based on PLEIA Exercise and Evaluation modules. The experimental results are shown for myopathic Children. The obtained results are promising
APA, Harvard, Vancouver, ISO, and other styles
31

Allègre, Olivier. "Adapting the Prerequisite Structure to the Learner in Student Modeling." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS116.

Full text
Abstract:
Les modèles d'apprenant basés sur les données visent à représenter et comprendre les connaissances des élèves ainsi que leurs autres caractéristiques métacognitives pour soutenir leur apprentissage en faisant des prédictions sur leurs performances futures. La modélisation de l'apprenant peut être abordée en utilisant différentes modèles de système complexes, chacun offrant une perspective différente sur l'étudiant et le processus d'apprentissage. Les techniques d'apprentissage automatique améliorées par la représentation de la connaissance, telles que les réseaux bayésiens, sont particulièrement adaptées pour intégrer la connaissance de domaine dans le modèle de l'apprenant, ce qui en fait un outil précieux dans la modélisation des élèves. Ce travail explore la modélisation et les applications potentielles d'un nouveau cadre appelé E-PRISM (pour Embedding Prerequisite Relationships in Student Modeling), qui inclut un modèle d'apprenant basé sur les réseaux Bayésiens dynamiques. Il utilise une nouvelle architecture pour les réseaux bayésiens qui repose sur la clause d’indépendance des influences causales (ICI), qui réduit le nombre de paramètres dans le réseau et permet une interprétabilité améliorée. L'étude examine les points forts d'EPRISM, notamment sa capacité à considérer la structure préalable requise entre les composants de connaissances, son nombre limité de paramètres et son interprétabilité améliorée. L'étude introduit également une nouvelle approche pour l'inférence approximative dans les grands réseaux bayésiens basés sur la clause ICI, ainsi qu'un algorithme d'apprentissage de paramètres performant dans les réseaux bayésiens basés sur cette clause. Dans l'ensemble, l'étude démontre le potentiel d'E-PRISM comme outil prometteur pour découvrir la structure préalable requise des connaissances de domaine qui peuvent être adaptées à l'apprenant avec pour objectif d'améliorer l'adaptabilité de la boucle extérieure d’un tuteur intelligent
Data-driven learner models aim to represent and understand students' knowledge and other meta-cognitive characteristics to support their learning by making predictions about their future performance. Learner modeling can be approached using various complex system models, each providing a different perspective on the student and the learning process. Knowledge-enhanced machine learning techniques, such as Bayesian networks, are particularly well suited for incorporating domain knowledge into the learner model, making them a valuable tool in student modeling.This work explores the modeling and the potential applications of a new framework, called E-PRISM, for Embedding Prerequisite Relationships In Student Modeling, which includes a learner model based on dynamic Bayesian networks. It uses a new architecture for Bayesian networks that rely on the clause of Independence of Causal Influences (ICI), which reduces the number of parameters in the network and allows enhanced interpretability. The study examines the strengths of E-PRISM, including its ability to consider the prerequisite structure between knowledge components, its limited number of parameters, and its enhanced interpretability. The study also introduces a novel approach for approximate inference in large ICI-based Bayesian networks, as well as a performant parameter learning algorithm in ICI-based Bayesian networks. Overall, the study demonstrates the potential of E-PRISM as a promising tool for discovering the prerequisite structure of domain knowledge that may be adapted to the learner with the perspective of improving the outer-loop adaptivity
APA, Harvard, Vancouver, ISO, and other styles
32

Robert, Fabien. "Solution de filtrage reconfigurable en technologie CMOS 65nm pour les architectures d'émission numériques." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1046/document.

Full text
Abstract:
Cette thèse porte sur les défis techniques et technologiques dans la conception des architectures mobiles d'émission « tout numérique » reconfigurables fonctionnant dans les bandes cellulaires pour les standards GSM, W-CDMA, HSUPA et LTE. Avec l'évolution constante des besoins en communication, les terminaux mobiles doivent être en mesure de couvrir différents standards à partir d'une même architecture, en fonction des bandes de fréquences libres, du débit et des contraintes spectrales. Dans un but de réduction des coûts, de consommation et d'une plus grande intégration, de nouvelles architectures dites multistandards se sont développées permettant à un seul émetteur d'adresser chaque standard au lieu de paralléliser plusieurs architectures radio chacune dédiée à un standard particulier. Depuis plusieurs années ont émergé des technologies nanométriques telles que le CMOS 90nm ou 65nm, ouvrant la voie à une plus grande numérisation des blocs fonctionnels des architectures jusqu'alors analogiques. Dans cette étude, nous identifions les évolutions possibles entre « monde analogique » et « monde numérique » permettant de déplacer la limite de la bande de base jusqu'à l'amplificateur de puissance. Plusieurs architectures ont été étudiées avec des degrés de numérisation progressifs jusqu'à atteindre l'architecture « tout numérique » englobant une partie de l'amplification de puissance. Un travail approfondi sur l'étude des différents standards cellulaires mené conjointement avec l'implémentation et la simulation de ces architectures, a permis d'identifier les différents verrous technologiques et fonctionnels dans le développement d'architectures « tout numérique ». Les contraintes de pollution spectrale des raies de sur-échantillonnage sont apparues comme dimensionnantes. Pour chaque bande de chaque standard, ces contraintes ont été évaluées, afin de définir une méthode d'optimisation des fréquences de sur-échantillonnage. Cependant un filtrage externe reste nécessaire. Une deuxième étape nous a amené à identifier et concevoir une technique de filtrage passe bande reconfigurable pour les bandes cellulaires de 1710 à 1980MHz avec au moins 60MHz de largeur de bande afin d'adresser le standard LTE, et 23dB d'atténuation à 390MHz du centre de la bande pour adresser le pire cas de filtrage (bandes 1, 3 et 10 en W-CDMA). Nous avons alors conçu et implémenté un filtre reconfigurable à inductances actives, afin de garantir reconfigurabilité et très faibles pertes d'insertion. Cette thèse a donc permis à partir d'une problématique actuelle et au travers d'une démarche d'identification des limites des architectures « tout numérique », de proposer un prototype de filtre adapté. Ce filtre a été conçu en CMOS 65nm, réalisé et mesuré, les performances sont conformes aux exigences requises
This thesis addresses the technical and technological challenges in the design of “all digital” reconfigurable mobile architectures operating cellular standard bands (GSM, WCDMA, HSUPA and LTE). With the ever-changing communication needs, mobile devices must be able to address different standards from a common architecture depending on free frequency bands, data rate and spectral constraints. In order to reduce costs, consumption and to obtain a greater integration, new architectures were developed and called multi-standard allowing a single transmitter to transmit each standard instead of parallelizing several radio architectures each dedicated to a particular standard. For several years nanoscale technologies such as 90nm or 65nm CMOS have emerged, clearing the way to replace analog functional blocks by greater digital functional blocks. In this study, we identify possible changes between "analog world" and "digital world" to move the digital boundary from the baseband to power amplifier. Several architectures have been studied with progressive digitization degrees to meet "all digital" architecture, comprising part of the power amplifier. Extensive work on the study of different cellular standards conducted jointly with the implementation and simulation of these architectures, let us identified the different technological and functional locks in the development of "all digital" architectures. Oversampling spurious constraints have emerged as dimensioning. For each band of each standard, these constraints were evaluated to define an optimization method of over-sampling frequency. However an external filter is required. A second step led us to identify and design a reconfigurable bandpass filtering technique for cellular bands from 1710 to 1980MHz with at least 60MHz of bandwidth in order to address the LTE, and 23dB attenuation at 390MHz from the center of the filter to address the most constringent filtering cases (bands 1, 3 and 10 in W-CDMA). We then designed and implemented a reconfigurable filter based on active inductors to ensure reconfigurability and very low insertion loss. This thesis permit from an actual architecture system issue and through a process to identify limitations of “all digital” architectures, to propose an adapted filtering solution. This filter was designed in 65nm CMOS, implemented. Measured performance is consistent with requirements
APA, Harvard, Vancouver, ISO, and other styles
33

Kermorgant, Olivier. "Fusion d'informations multi-capteurs en asservissement visuel." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00747052.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la commande référencée capteurs. Pour un robot mobile ou un bras manipulateur dote d'un ou plusieurs capteurs, cette approche consiste à définir une tache de déplacement en spécifiant uniquement les mesures a' atteindre. Ce paradigme est connu pour permettre une très bonne précision de positionnement. En revanche, le robot peut présenter un comportement non désiré en cas de mouvement important ou de contraintes à respecter ( évitement des butées articulaires, visibilité, obstacles, etc.). Les solutions nécessitent généralement des degrés de liberté supplémentaires, permettant de réaliser la tâche tout en respectant les contraintes. Nous proposons tout d'abord un formalisme original pour la calibration d'un capteur extéroceptif à partir de la mesure de vitesse. Il est ainsi possible d'estimer a' la fois les paramètres de calibration intrinsèques du capteur et la position du capteur par rapport au repère du robot. Des résultats de simulation et d'expérience sont exposes pour la calibration d'une camera. Nous établissons ensuite un formalisme complet pour la réalisation d'une tache référencée multi-capteurs soumise a' un nombre arbitraire de contraintes. Nous proposons une façon générique d'introduire les contraintes dans la loi de commande. Le comportement induit est une perturbation minimale de la tache référencée capteurs tout en respectant plusieurs contraintes. Ce formalisme est applique à des problèmes classiques en robotique : évitement de butées et contrainte de visibilité. De nombreuses contraintes sont enfin combinées au sein d'un même système.
APA, Harvard, Vancouver, ISO, and other styles
34

Guzzo, Natale. "Facing the real challenges in wireless sensor network-based applications : an adaptative cross-layer self-organization WSN protocol." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10190.

Full text
Abstract:
Le réseau de capteurs sans fil (WSN) est un des protagonistes contribuant à l’évolution et au développement de l’Internet des objets (IoT). Plusieurs cas d’usage peuvent être trouvés dans les différents domaines comme l’industrie du transport maritime où le fret conteneurisé compte environ pour 60% du commerce mondial. Dans ce contexte, la société TRAXENS a développé un dispositif radio alimenté par batterie appelé TRAX-BOX et conçu pour être fixé aux containeurs dans l’objectif de les traquer et les surveiller tout au long de la chaine logistique. Dans cette thèse, je vais présenter une nouvelle pile protocolaire WSN appelée TRAX-NET et conçue pour permettre aux TRAX-BOX de s’auto-organiser dans un réseau sans fil et coopérer pour délivrer les données acquises au serveur TRAXENS d’une façon énergiquement efficiente. Les résultats des simulations et des tests sur le terrain montrent que TRAX-NET est bien optimisé pour les différents scenarios pour lesquels il a été développé et satisfait les exigences de l’application concernée mieux que les autres solutions étudiées dans la littérature. TRAX-NET est une solution complète et adaptée au suivi des conteneurs de fret de par le monde
Wireless Sensor Networks (WSN) is one of the protagonists contributing to the evolution and the development of the Internet of Things (IoT). Several use cases can be found today in the different fields of the modern technology including the container shipping industry where containerized cargo accounts for about 60 percent of all world seaborne trade. In this context, TRAXENS developed a battery-powered device named TRAX-BOX designed to be attached to the freight containers in order to track and monitor the shipping goods along the whole supply chain. In this thesis, we present a new energy-efficient self-organizing WSN protocol stack named TRAX-NET designed to allow the TRAX-BOX devices to cooperate to deliver the sensed data to the TRAXENS platform.The results of simulations and field tests show that TRAX-NET well perform in the different scenarios in which it is supposed to operate and better fulfil the requirements of the assumed application in comparison with the existing schemes
APA, Harvard, Vancouver, ISO, and other styles
35

Burger, Brice. "Fusion de données audio-visuelles pour l'interaction homme-robot." Phd thesis, Toulouse 3, 2010. http://thesesups.ups-tlse.fr/916/.

Full text
Abstract:
Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasitemps réel sur ces plateformes robotiques réelles
In the framework of assistance robotics, this PHD aims at merging two channels of information (visual and aiditive potentially avaible on a robot. The goal is ton complete and/ or conf rm data that an only channel could have supplied in order to perform advanced intatraction which goal is to interpret jointly speech gesture, in particular for the use of spatial references. In this thesis, we first de cribe the speech part of this work which consists in an embedded recognition and interpretation system for continuous speech. Then comes the vision part which is composed of a visual multi-target tracker that tracks, in 3D the head and the two hands of a human in front of the robot, and a second tracker for the head orientation. The outputs of these trackers are used to feed the gesture recognitive system described later. We continue with the description of a module dedicated to the fusion of the data outputs of these information sources in a probailistic framework. Last, we demonstrate the interest and feasibility of such a multimodal interface through some demonstrations on the LAAS-CNRS robots. All the modules described in this thesis are working in quasi-real time on these real robotic platforms
APA, Harvard, Vancouver, ISO, and other styles
36

Farhat, Salman. "Safe Dynamic Reconfiguration of Applications with Features." Electronic Thesis or Diss., Université de Lille (2022-....), 2024. http://www.theses.fr/2024ULILB014.

Full text
Abstract:
Les applications déployées sur des environnement de type Cloud ou sur des systèmes cyber-physiques nécessitent une reconfiguration fréquente pendant leur exécution pour s'adapter à l'évolution des besoins et des exigences, ce qui souligne l'importance des capacités de reconfiguration dynamique. En outre, ces environnements peuvent étendre et modifier leurs services en cours d'exécution, ce qui nécessite une approche compositionnelle pour permettre la modification des configurations. Pour gérer la variabilité de l'architecture des grands systèmes, les modèles de caractéristiques sont largement utilisés au moment de la conception, avec plusieurs opérateurs définis pour permettre leur composition. Les approches existantes calculent de nouvelles configurations valides soit au moment de la conception, soit au moment de l'exécution, soit les deux, ce qui entraîne d'importants temps de calcul ou de validation pour chaque étape de reconfiguration. En outre, la construction de modèles formels corrects par construction pour gérer les reconfigurations d'applications est une tâche complexe et sujette aux erreurs, et il est nécessaire de l'automatiser autant que possible.Pour relever ces défis, nous proposons une approche appelée FeCo4Reco qui s'appuie sur les modèles de caractéristiques pour générer automatiquement, dans un formalisme basé sur les composants appelé JavaBIP, des modèles de variabilité d'exécution basés sur les composants qui respectent les contraintes du modèle de caractéristiques. Ces modèles de variabilité d'exécution basés sur les composants sont exécutables et peuvent être utilisés à l'exécution pour appliquer les contraintes de variabilité, c'est-à-dire pour garantir la validité (partielle) de toutes les configurations atteignables.Comme les architectures des systèmes complexes peuvent évoluer à l'exécution en acquérant de nouvelles fonctionnalités tout en respectant de nouvelles contraintes, nous définissons des opérateurs de composition pour les modèles de variabilité à l'exécution basés sur des composants qui, non seulement encodent ces opérateurs de composition de modèles de caractéristiques, mais garantissent également une reconfiguration sûre à l'exécution. Pour prouver les propriétés de correction et de composition, nous proposons une nouvelle équivalence UP-bisimulation en plusieurs étapes et l'utilisons pour montrer que les modèles de variabilité d'exécution basés sur les composants préservent la sémantique des modèles de fonctionnalités composés.Pour l'évaluation expérimentale, nous avons démontré l'applicabilité de notre approche dans des scénarios réels en générant un modèle d'exécution basé sur le modèle de caractéristiques de la plateforme cloud Heroku à l'aide de notre approche. Ce modèle est ensuite utilisé pour déployer une application web réelle sur la plateforme Heroku. En outre, nous avons mesuré les surcharges de temps et de mémoire induites par les modèles d'exécution générés sur des systèmes impliquant jusqu'à 300 fonctionnalités. Les résultats montrent que les surcharges sont négligeables, ce qui démontre l'intérêt pratique de notre approche
Cloud applications and cyber-physical systems require frequent reconfiguration at run-time to adapt to changing needs and requirements, highlighting the importance of dynamic reconfiguration capabilities. Additionally, the environment platforms can extend and modify their services at run-time, which necessitates a compositional approach to allow the modifications of the configurations. To manage the variability of large systems' architecture, feature models are widely used at design-time with several operators defined to allow their composition. Existing approaches compute new valid configurations either at design time, at runtime, or both, leading to significant computational or validation overheads for each reconfiguration step. In addition, building correct-by-construction formal models to handle application reconfigurations is a complex and error-prone task, and there is a need to make it automated as far as possible.To address these challenges, we propose an approach named FeCo4Reco that leverages feature models to automatically generate, in a component-based formalism called JavaBIP, component-based run-time variability models that respect the feature model constraints. These component-based run-time variability models are executable and can be used at runtime to enforce the variability constraints, that is, to ensure the (partial) validity of all reachable configurations.As complex systems' architectures may evolve at run-time by acquiring new functionalities while respecting new constraints, we define composition operators for component-based run-time variability models that not only encode these feature model composition operators, but also ensure safe run-time reconfiguration. To prove the correctness and compositionality properties, we propose a novel multi-step UP-bisimulation equivalence and use it to show that the component-based run-time variability models preserve the semantics of the composed feature models.For the experimental evaluation, we demonstrated the applicability of our approach in real-world scenarios by generating a run-time model based on the feature model of the Heroku cloud platform using our approach. This model is then used to deploy a real-world web application on the Heroku platform. Furthermore, we measured the time and memory overheads induced by the generated run-time models on systems involving up to 300 features. The results show that the overheads are negligible, demonstrating the practical interest of our approach
APA, Harvard, Vancouver, ISO, and other styles
37

Cudennec, Loïc. "CoRDAGe : un service générique de co-déploiement et redéploiement d’applications sur grilles." Phd thesis, Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/cudennec.pdf.

Full text
Abstract:
Les grilles informatiques sont constituées de plusieurs milliers de ressources physiques hétérogènes et réparties dans des domaines d'administration différents. Ceci rend l'utilisation des grilles très difficile, notamment pour déployer une application et prendre en compte la dynamicité de l'infrastructure. La contribution de ce travail de doctorat est de proposer un modèle permettant de prendre en charge le déploiement d'applications distribuées, de manière dynamique et transparente pour l'utilisateur. Ce modèle s'adapte aux spécificités de chaque application, sans pour autant être intrusif lors de leur conception. Afin de valider notre modèle, nous proposons une architecture appelée CoRDAGe. Elle a été utilisée pour prendre en charge le service de partage de données JuxMem et le système de fichiers Gfarm sur la plate-forme expérimentale Grid'5000
Computer grids are made of thousands of heterogeneous physical resources that belong to different administration domains. This makes the use of the grid very complex, especially for deploying distributed applications at large scale, while taking care of the dynamicity of the infrastructure. The contribution of the PhD Thesis is to propose a model that allows to dynamically and transparently deploy distributed applications. This model can be adapted, in a non-intrusive way, to handle different kind of applications. In order to validate our model, we propose an architecture named CoRDAGe. This leads to a prototype that can handle several applications, such as the JuxMem data-sharing service and the Gfarm distributed file system. Experimentations have been conducted within the Grid'5000 project
APA, Harvard, Vancouver, ISO, and other styles
38

Vie, Jill-Jênn. "Modèles de tests adaptatifs pour le diagnostic de connaissances dans un cadre d'apprentissage à grande échelle." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC090/document.

Full text
Abstract:
Cette thèse porte sur les tests adaptatifs dans les environnements d’apprentissage. Elle s’inscrit dans les contextes de fouille de données éducatives et d’analytique de l’apprentissage, où l’on s’intéresse à utiliser les données laissées par les apprenants dans des environnements éducatifs pour optimiser l’apprentissage au sens large.L’évaluation par ordinateur permet de stocker les réponses des apprenants facilement, afin de les analyser et d’améliorer les évaluations futures. Dans cette thèse, nous nous intéressons à un certain type de test par ordinateur, les tests adaptatifs. Ceux-ci permettent de poser une question à un apprenant, de traiter sa réponse à la volée, et de choisir la question suivante à lui poser en fonction de ses réponses précédentes. Ce processus réduit le nombre de questions à poser à un apprenant tout en conservant une mesure précise de son niveau. Les tests adaptatifs sont aujourd’hui implémentés pour des tests standardisés tels que le GMAT ou le GRE, administrés à des centaines de milliers d’étudiants. Toutefois, les modèles de tests adaptatifs traditionnels se contentent de noter les apprenants, ce qui est utile pour l’institution qui évalue, mais pas pour leur apprentissage. C’est pourquoi des modèles plus formatifs ont été proposés, permettant de faire un retour plus riche à l’apprenant à l’issue du test pour qu’il puisse comprendre ses lacunes et y remédier. On parle alors de diagnostic adaptatif.Dans cette thèse, nous avons répertorié des modèles de tests adaptatifs issus de différents pans de la littérature. Nous les avons comparés de façon qualitative et quantitative. Nous avons ainsi proposé un protocole expérimental, que nous avons implémenté pour comparer les principaux modèles de tests adaptatifs sur plusieurs jeux de données réelles. Cela nous a amenés à proposer un modèle hybride de diagnostic de connaissances adaptatif, meilleur que les modèles de tests formatifs existants sur tous les jeux de données testés. Enfin, nous avons élaboré une stratégie pour poser plusieursquestions au tout début du test afin de réaliser une meilleure première estimation des connaissances de l’apprenant. Ce système peut être appliqué à la génération automatique de feuilles d’exercices, par exemple sur un cours en ligne ouvert et massif (MOOC)
This thesis studies adaptive tests within learning environments. It falls within educational data mining and learning analytics, where student educational data is processed so as to optimize their learning.Computerized assessments allow us to store and analyze student data easily, in order to provide better tests for future learners. In this thesis, we focus on computerized adaptive testing. Such adaptive tests which can ask a question to the learner, analyze their answer on the fly, and choose the next question to ask accordingly. This process reduces the number of questions to ask to a learner while keeping an accurate measurement of their level. Adaptive tests are today massively used in practice, for example in the GMAT and GRE standardized tests, that are administered to hundreds of thousands of students. Traditionally, models used for adaptive assessment have been mostly summative : they measure or rank effectively examinees, but do not provide any other feedback. Recent advances have focused on formative assessments, that provide more useful feedback for both the learner and the teacher ; hence, they are more useful for improving student learning.In this thesis, we have reviewed adaptive testing models from various research communities. We have compared them qualitatively and quantitatively. Thus, we have proposed an experimental protocol that we have implemented in order to compare the most popular adaptive testing models, on real data. This led us to provide a hybrid model for adaptive cognitive diagnosis, better than existing models for formative assessment on all tried datasets. Finally, we have developed a strategy for asking several questions at the beginning of a test in order to measure the learner more accurately. This system can be applied to the automatic generation of worksheets, for example on a massive online open course (MOOC)
APA, Harvard, Vancouver, ISO, and other styles
39

Ameer, Muhammad. "Integrated and multi-criteria approaches for process plan generation in reconfigurable manufacturing systems with consideration of system capabilities and product constraints." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0242.

Full text
Abstract:
Les systèmes de fabrication modernes connaissent un changement de paradigme qui met l'accent sur l'intégration des technologies du numérique dans les systèmes de production afin de relever le défi des demandes incertaines du marché. Les systèmes de fabrication ont besoin d'une certaine réactivité pour faire face à ces incertitudes en s'adaptant en conséquence, et nécessitent une plus grande évolutivité aux niveaux physique et logique. À cet effet, les systèmes de fabrication modernes sont conçus avec des capacités de ressources dynamiques, avec des composants modulaires, de sorte qu'ils puissent fournir le niveau requis de reconfigurabilité. Dans la perspective de l'"industrie 4.0", la reconfigurabilité est indispensable à l'adaptation efficace des systèmes de fabrication dans un environnement complexe. La reconfigurabilité permet une adaptation rapide de ces systèmes ainsi qu'une réactivité rapide à la compétitivité socio-techno-économique. L'objectif est de répondre aux défis modernes (externes et internes), c'est-à-dire la personnalisation de masse, la mondialisation, la gestion de la variété des produits, la gestion de la reconfiguration des systèmes et la réduction des délais.Dans cette thèse, le problème de conception des systèmes de fabrication reconfigurables (RMS) est considéré pour répondre aux exigences susmentionnées. L'objectif est de concevoir un système réactif basé sur deux caractéristiques clés : la modularité et la reconfigurabilité. Nous étudions le problème de conception du RMS comme étant le développement d'une gamme de fabrication pour une pièce spécifique de la famille considérée, ainsi que la sélection des capacités de ressources dynamiques du système pour fabriquer cette pièce.Ce travail est divisé en trois parties : (1) Cogénération du processus et du plan de préparation pour une pièce dans un environnement reconfigurable. L'objectif principal est de développer une nouvelle approche pour considérer conjointement les contraintes de préparation et de gamme de fabrication, en tenant compte des relations entre les opérations. (2) Minimisation de l'effort de reconfiguration dans la conception des gammes. Nous proposons un nouvel indice de performance de l'effort généré par la reconfiguration des machines et des fixations, ainsi que le transfert des pièces. L'objectif est d'assurer une meilleure réactivité et une haute performance la gamme conçue. (3) Maximisation de l'utilisation des capacités des ressources dynamiques de la conception RMS. Nous considérons un problème de conception RMS pour la sélection de machines, où la sélection de différents types de machines-outils reconfigurables (RMT) est réalisée pour exécuter la gamme de la pièce considérée
Modern manufacturing systems are going through a paradigm shift where the focus is on the integrating the digital technologies in the production systems to address the challenge of uncertain market demands. Manufacturing systems needs certain amount responsiveness to address these uncertainties by adapting accordingly, and require more changeability at physical as well as logical levels. For this purpose, modern-day manufacturing systems are designed with dynamic resource capabilities, with modular components, so that they can provide the required amount of reconfigurability. From the perspective of "industry 4.0", reconfigurability is vital for the effective adaptation of manufacturing systems in a complex environment. Reconfigurability provides the quick adaptation of these systems along with quick responsiveness towards socio-techno-economic competitiveness. The objective is to respond to modern-day challenges (both external and internal), i.e. mass customization, globalization, product variety management, system reconfiguration management, and reducing the lead time.In this thesis, the design problem of reconfigurable manufacturing systems (RMS) is considered which meets the aforementioned requirements. The goal is to design a responsive system based on two key features modularity and reconfigurability. We study the RMS design problem as, the development of a process plan for a particular part of the part family along with the selection of the system's dynamic resource capabilities to perform that part. This work is divided into three parts: (1) Co-generation of process and setup plan for a part in the reconfigurable environment. The main objective is to develop a new approach to jointly consider the setup and process plan constraints, with consideration of relationships between the operations. (2) Minimisation of reconfiguration effort in process design. We propose a novel performance index of the effort generated by the machines and fixtures reconfiguration, and part transfer. The objective is to ensure better responsiveness and high performance of the designed process plan. (3) Maximisation the utilization of dynamic resource capabilities of RMS design. We consider a RMS design problem for machine selection, where selection of different types of reconfigurable machine tools (RMTs) are carried out for performing the process plan of considered part
APA, Harvard, Vancouver, ISO, and other styles
40

Debackere, Florian. "Conception d'interactions motivationnelles, adaptatives et mobiles pour le changement de comportement : application à la lombalgie." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG060.

Full text
Abstract:
Aujourd'hui se développent les technologies dites persuasives ou motivationnelles qui désignent des technologies, applications ou services conçus pour induire des changements d'attitudes et de comportements chez ceux qui les utilisent. Cela fait l'objet de recherche en Interaction Humain-Machine en lien avec des théories issues de la psychologie liées par exemple au changement de comportement ou à la motivation. Des recherches sur ces technologies suggèrent qu'afin d'encourager une adhésion à long-terme, ces “coachs virtuels” doivent être personnalisés et/ou adaptés en fonction des caractéristiques individuelles des utilisateurs (stade de changement de comportement, motivations, préférences, barrières). Par exemple, selon la Théorie de l'Auto-Détermination (TAD), un individu peut présenter différentes formes de motivation plus ou moins efficaces. Il s'agit alors de pouvoir identifier les formes de motivation présentes chez les utilisateurs afin de proposer des services et des interactions permettant de les renforcer ou de les faire évoluer. L'utilisation de tels systèmes dans le domaine de la santé a le potentiel d'induire et de renforcer des comportements de santé parfois difficiles à instaurer par les soignants. Proposer une prise en charge quotidienne et personnalisée représente un coût humain et financier considérable pour les professionnels de santé. Une application mobile a l'avantage de pouvoir faire face à ces contraintes. L'objectif de cette thèse est de concevoir ce coach informatique avec et pour des patients atteints de lombalgie chronique pour les accompagner dans la gestion de leur pathologie notamment vis à vis de leurs douleurs et de la pratique d'une activité physique régulière. Les défis majeurs de cette thèse incluent la sélection et la coordination des différentes méthodologies existantes, ainsi que l'évaluation de la qualité et de l'efficacité de l'application. Les questions clés abordent une compréhension approfondie des patients en termes de caractéristiques psychologiques, la mise en œuvre d'une approche centrée-utilisateur et participative pour répondre aux besoins des patients, l'adaptation de l'intervention pour favoriser le processus de changement de comportement, et l'évaluation de cette intervention sur l'engagement et le processus de changement de comportement des patients. Les contributions s'articulent autour de trois axes : (1) la proposition d'un métamodèle de conception et d'évaluation pour des interventions numériques adaptatives de soutien au changement de comportement, (2) l'identification de profils de patients lombalgiques basés sur des caractéristiques psychologiques liées au processus de changement de comportement et (3) la conception d'une application mobile à destination des patients lombalgiques. Ainsi, cette thèse propose une approche utile pour guider la conception d'interventions et interactions humain-machine adaptatives, fondées sur des théories en psychologie du changement de comportement et en impliquant les professionnels et les patients dans le processus de conception
Today's technologies are known as persuasive or motivational, referring to technologies, applications or services designed to induce changes in the attitudes and behaviors of those who use them. This is the subject of research in Human-Computer Interaction, in conjunction with theories from psychology linked, for example, to behavior change or motivation. Research on these technologies suggests that, in order to encourage long-term adherence, these “virtual coaches” need to be personalized and/or adapted according to users' individual characteristics (stage of behavior change, motivations, preferences, barriers). For example, according to Self-Determination Theory (SDT), an individual may present different forms of motivation, more or less effective. The aim is to identify the forms of motivation present in users, in order to offer services and interactions that reinforce or develop them. The use of such systems in the healthcare field has the potential to induce and reinforce health behaviors that are sometimes difficult for caregivers to establish. Offering personalized daily care represents a considerable human and financial cost for healthcare professionals. A mobile application has the advantage of being able to cope with these constraints. The aim of this thesis is to design this computer coach with and for patients suffering from chronic low back pain, to help them manage their condition, particularly with regard to their pain and the practice of regular physical activity. The major challenges of this thesis include the selection and coordination of different existing methodologies, as well as the evaluation of the application's quality and effectiveness. Key issues address a thorough understanding of patients in terms of psychological characteristics, the implementation of a user-centered and participatory approach to meet patients' needs, the tailoring of the intervention to foster the behavior change process, and the evaluation of this intervention on patients' engagement and behavior change process. The contributions are structured around three axes: (1) the proposal of a design and evaluation metamodel for adaptive digital interventions to support behavior change, (2) the identification of low back pain patient profiles based on psychological characteristics related to the behavior change process, and (3) the design of a mobile application for low back pain patients. Thus, this thesis proposes a useful approach to guide the design of adaptive human-machine interventions and interactions, based on theories in the psychology of behavior change and involving professionals and patients in the design process
APA, Harvard, Vancouver, ISO, and other styles
41

Kaushik, Rituraj. "Data-Efficient Robot Learning using Priors from Simulators." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0105.

Full text
Abstract:
Quand les robots doivent affronter le monde réel, ils doivent s'adapter à diverses situations imprévues en acquérant de nouvelles compétences le plus rapidement possible. Les algorithmes d'apprentissage par renforcement (par exemple, l'apprentissage par renforcement profond) pourraient permettre d’apprendre de telles compétences, mais les algorithmes actuels nécessitent un temps d'interaction trop important. Dans cette thèse, nous avons exploré des méthodes permettant à un robot d'acquérir de nouvelles compétences par essai-erreur en quelques minutes d'interaction physique. Notre objectif principal est de combiner des connaissances acquises sur un simulateur avec les expériences réelles du robot afin d'obtenir un apprentissage et une adaptation rapides. Dans notre première contribution, nous proposons un nouvel algorithme de recherche de politiques basé sur un modèle, appelé Multi-DEX, qui (1) est capable de trouver des politiques dans des scénarios aux récompenses rares, (2) n'impose aucune contrainte sur le type de politique ou le type de fonction de récompense et (3) est aussi efficace en termes de données que l'algorithme de recherche de politiques de l’état de l’art dans des scénarios de récompenses non rares. Dans notre deuxième contribution, nous proposons un algorithme d'apprentissage en ligne basé sur un répertoire, appelé APROL, qui permet à un robot de s'adapter rapidement à des dommages physiques (par exemple, une patte endommagée) ou à des perturbations environnementales (par exemple, les conditions du terrain) et de résoudre la tâche donnée. Nous montrons qu'APROL surpasse plusieurs lignes de base, y compris l'algorithme d'apprentissage par répertoire RTE (Reset Free Trial and Error), en résolvant les tâches en un temps d'interaction beaucoup plus court que les algorithmes avec lesquels nous l’avons comparé. Dans notre troisième contribution, nous présentons un algorithme de méta-apprentissage basé sur les gradients appelé FAMLE. FAMLE permet d'entraîner le modèle dynamique du robot à partir de données simulées afin que le modèle puisse être adapté rapidement à diverses situations invisibles grâce aux observations du monde réel. En utilisant FAMLE pour améliorer un modèle pour la commande prédictive, nous montrons que notre approche surpasse plusieurs algorithmes d'apprentissage basés ou non sur un modèle, et résout les tâches données en moins de temps d'interaction que les algorithmes avec lesquels nous l’avons comparé
As soon as the robots step out in the real and uncertain world, they have to adapt to various unanticipated situations by acquiring new skills as quickly as possible. Unfortunately, on robots, current state-of-the-art reinforcement learning (e.g., deep-reinforcement learning) algorithms require large interaction time to train a new skill. In this thesis, we have explored methods to allow a robot to acquire new skills through trial-and-error within a few minutes of physical interaction. Our primary focus is to incorporate prior knowledge from a simulator with real-world experiences of a robot to achieve rapid learning and adaptation. In our first contribution, we propose a novel model-based policy search algorithm called Multi-DEX that (1) is capable of finding policies in sparse reward scenarios (2) does not impose any constraints on the type of policy or the type of reward function and (3) is as data-efficient as state-of-the-art model-based policy search algorithm in non-sparse reward scenarios. In our second contribution, we propose a repertoire-based online learning algorithm called APROL which allows a robot to adapt to physical damages (e.g., a damaged leg) or environmental perturbations (e.g., terrain conditions) quickly and solve the given task. In this work, we use several repertoires of policies generated in simulation for a subset of possible situations that the robot might face in real-world. During the online learning, the robot automatically figures out the most suitable repertoire to adapt and control the robot. We show that APROL outperforms several baselines including the current state-of-the-art repertoire-based learning algorithm RTE by solving the tasks in much less interaction times than the baselines. In our third contribution, we introduce a gradient-based meta-learning algorithm called FAMLE. FAMLE meta-trains the dynamical model of the robot from simulated data so that the model can be adapted to various unseen situations quickly with the real-world observations. By using FAMLE with a model-predictive control framework, we show that our approach outperforms several model-based and model-free learning algorithms, and solves the given tasks in less interaction time than the baselines
APA, Harvard, Vancouver, ISO, and other styles
42

Foulonneau, Anthony. "Les technologies persuasives adaptatives." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM085/document.

Full text
Abstract:
Cette thèse traite des technologies persuasives et plus particulièrement de leur adaptation, pour en optimiser l’efficacité et la pertinence auprès de l’utilisateur. Les technologies persuasives sont des technologies conçues pour modifier le comportement de leurs utilisateurs, sans utilisation de la coercition ni de la tromperie. L’étude de la persuasion technologique se caractérise par un grand nombre de techniques pour altérer le comportement de l’utilisateur, mais des méthodes pour mettrent en oeuvre ces technologies encoreperfectibles.Elles ont pour fondement la persuasion inter-personnelle, étudiée depuis plus de deux millénaires dans le champ de la rhétorique, de la philosophie, et plus récemment de la psychologie. Cette dernière discipline proposent des théories et modèles pour rendre compte et comprendre les processus à l’oeuvre dans le choix d’un comportement. Ces théories nous montrent en particulier que les situations persuasives sont complexes, variées, avec de nombreux facteurs d’influence. C’est pourquoi nous proposons la notion de technologies persuasives adaptatives, des technologies capables d’adapter leurs stratégies de persuasion à l’utilisateur dans son contexte. Pour mettre en oeuvre ces dispositifs, nous proposons dans un premier un modèle du contexte persuasif, c’est-à-dire de l’ensemble des contraintes qui influencent l’adoption d’un comportement cible par un individu et à un instant donnés. Chacune de ces contraintes est à la fois un critère d’adaptation et un levier d’action dans la quête persuasive de la technologie. Pour chacun de ces leviers, nous avons identifié les techniques de persuasion qui permettent de les actionner. Dans un second temps, nous avons caractérisé l’adaptation de la persuasion sur un espace problème autour de cinq axes : la finalité, la cible, les critères et la dynamique de l’adaptation, ainsi que le rôle joué par l’utilisateur dans ce processus. Enfin, nous avons montré l’intérêt de l’adaptation, et des outils précédemment cités, dans la mise en oeuvre d’un dispositif persuasif dédié à la régulation du temps d’usage du smartphone
This thesis deals with persuasive technologies, and in particular adaptation of the persuasion in order to optimize efficiency and relevance of those technologies. Persuasive technologies are technologies design to change behaviors without using coercion or deception. Numerous techniques to shape user behavior but few and perfectible methods to design these technologies characterized the research domain of persuasive technologies.The background of persuasive technologies is the traditional interpersonal persuasion, studied for over two thousand years in rethoric, philosophy, and more recently psychology. This last discipline offers many theories and models to understand more precisely the process that determine human behaviors. These theories show in particular that persuasive situations are complex, varied, with many influence factors. That is why we propose the notion of adaptive persuasive technologies : technologies able to adapt their persuasive stategies to the user context. To design these products and services, we propose in the first place a model of the persuasive context, that is all the constraints that influence the practice of a targeted behavior by the user at a given time. Each constraint in the persuasive context is at the same time an adaptation criteria and an action lever for the adaptive persuasive technology. For each lever, we identify the persuasive principle that can be used to move it. In a second time, we propose a problem space that characterized the adaptation of the persuasion, thanks to five axis : the purpose, the target, the criteria and the dynamic of the adaptation, and the user role in the adaptation process. Finally, by making and assessing TILT, a persuasive application dedicated to smartphone usage regulation, we show that the adaptation of the persuasion, with the use of the persuasive contexte model and the problem space, benefits to the persuasive efficiency
APA, Harvard, Vancouver, ISO, and other styles
43

Kebbati, Mohammed-Yassine. "Learning-based reinforced control strategies for autonomous vehicles." Electronic Thesis or Diss., université Paris-Saclay, 2023. https://www.biblio.univ-evry.fr/theses/2023/interne/2023UPAST071.pdf.

Full text
Abstract:
Dans un monde où les gens sont constamment en mouvement et ou la mobilité personnelle est préférée, le nombre de voitures personnelles sur la route ne cesse d'augmenter. Cela a induit plus de risque d'accidents de route, des conditions de circulation et de pollution de l'air plus dégradées. Par conséquent, les chercheurs travaillent depuis des décennies pour une transition vers la conduite autonome. Cette dernière a la capacité de remodeler la mobilité en diminuant les accidents de route, les embouteillages et la pollution de l'air, ce qui se traduirait par plus d'efficacité énergétique et de productivité, oû le temps de conduite pourra plutôt être utilisé pour d'autres activités. Les véhicules autonomes sont des systèmes complexes constitués de plusieurs modules qui effectuent la perception, la prise de décision, la planification et le contrôle. Le module de commande, composé d'un contrôle longitudinal et d'un contrôle latéral, est essentiel pour obtenir une conduite automatique. En raison de la nature hautement dynamique et en constante évolution des environnements routiers, le module de commande des systèmes de conduite autonome doit apprendre et s'adapter à ces environnements dynamiques en exploitant les données disponibles et en utilisant différentes techniques d'apprentissage. Cette thèse apporte quelques contributions à l'état de l'art des stratégies de contrôle amélioré et appliquées à la conduite autonome. Les contributions abordent les tâches de contrôle longitudinal et latéral séparément, puis le contrôle latéral et longitudinal coordonné et couplé. Pour le contrôle longitudinal, nous proposons l'approche PID adaptatif en utilisant deux techniques différentes : l'optimisation et l'adaptation hors ligne à l'aide d'algorithmes génétiques (GA-PID) puis l'apprentissage et l'adaptation en ligne avec les réseaux de neurones (NNPID). Pour le contrôle latéral, nous introduisons une technique de contrôle prédictif MPC adaptatif améliorée avec un nouvel algorithme PSO amélioré. Ensuite, nous réalisons l'adaptation en ligne des paramètres du contrôleur en utilisant les réseaux de neurones (NN-MPC) et les systèmes d'inférence neuro-flou adaptatif (ANFIS-MPC), qui apprennent à adapter le contrôleur aux conditions de fonctionnement et aux perturbations externes. Pour le contrôle latéral et longitudinal coordonné, nous proposons un PSO-PID pour la régulation de la vitesse, et un contrôleur prédictif de type LPV-MPC pour contrôler la dynamique latérale. Le LPV-MPC est développé avec une fonction de coût améliorée pour obtenir de meilleures performances et stabilité, il est aussi formulé avec un modèle LPV adaptatif, dans lequel les coefficients de rigidité de glissement latéral des pneus sont estimés par un estimateur récursif. Ensuite, nous abordons le contrôle couplé de la vitesse et de la direction en développant un contrôleur LPV-MPC plus élaboré et capable de gérer simultanément les dynamiques latérales et longitudinales du véhicule. De plus, le modèle de prédiction du LPV-MPC est adapté en temps réel par un réseau de neurones, et sa fonction de coût est encore optimisée par un algorithme génétique amélioré. Enfin, nous nous abordons le problème de course autonome où le véhicule roule à ses limites de maniabilité. Nous introduisons un contrôleur prédictif de modèle nonlinéaire en temps réel (NMPC) couplé avec un estimateur d'état de type (MHE). Nous résolvons le problème de course optimale par un planificateur de trajectoire hors ligne basé sur la méthode NMPC qui calcule la meilleure trajectoire tout en tenant compte des limites physiques du véhicule et des contraintes du circuit. Ensuite, nous améliorons encore la stratégie de contrôle en ajoutant une extension d'apprentissage basée sur la régression par processus de Gauss. Ce dernier améliore les prédictions NMPC en apprenant et en corrigeant le décalage entre la véritable dynamique du véhicule et le modèle de prédiction NMPC
In a world where everyone is constantly on the move and has more preferences for personal mobility, the number of cars on the road is constantly increasing. This has induced higher risks for road accidents, degraded traffic conditions, and further aggravated air pollution. Consequently, the research community has been working toward a shift to autonomous driving for decades. The latter can reshape mobility and transportation by reducing road accidents, traffic jams, and air pollution, yielding energy efficiency, convenience, and more productivity as significant driving time will be used for other activities instead. Autonomous vehicles are complex systems consisting of several modules that perform perception, decision-making, planning, and control. The control module, consisting of longitudinal control for speed tracking and lateral control for path tracking, is essential for achieving automatic driving. Due to the highly dynamic and constantly changing nature of road environments, the control module in autonomous driving systems needs to learn and adapt to these dynamic environments by exploiting available data and using different learning techniques. This thesis contributes to the state-of-the-art enhanced control strategies applied to autonomous driving. The contributions address the longitudinal and the lateral control tasks separately and then the combined coordinated and coupled lateral and longitudinal control. For the longitudinal control, we propose the adaptive PID approach using two techniques : offline optimization and adaptation using genetic algorithms (GA-PID) and online learning and adaptation with neural networks (NNPID). We introduce an adaptive MPC technique enhanced with a new, improved PSO algorithm for steering control. Then we achieve MPC online parameter adaption by using neural networks (NNMPC) and adaptive neuro-fuzzy inference systems (ANFIS-MPC), which learn to adapt the controller to the changing working conditions and external disturbances. For the combined coordinated lateral and longitudinal control, we propose a PSO-PID to handle the task of speed tracking and an enhanced linear parameter varying model predictive controller (LPV-MPC) to control lateral dynamics. The LPV-MPC is enhanced with an improved cost function to provide better performance and stability and formulated with an adaptive LPV model, in which a recursive estimator estimates the tire cornering stiffness coefficients. Then, we address the coupled speed and steering control by developing a more elaborate LPV-MPC capable of simultaneously handling both lateral and longitudinal vehicle dynamics. Furthermore, a neural network adapts the controller's prediction model online, and an improved genetic algorithm further optimizes its cost function. Finally, we tackle a more challenging autonomous driving problem where the vehicle drives at its handling limits, namely autonomous racing. We introduce a real-time nonlinear model predictive controller (NMPC) coupled with a moving horizon estimator (MHE). We solve the optimal racing problem with an NMPC-based offline trajectory planner that computes the best trajectory while considering the physical limits of the vehicle and circuit constraints. Then, we further enhance the control strategy by adding a learning extension based on Gaussian process regression. The latter improves the NMPC predictions by learning and correcting the mismatch between the actual vehicle dynamics and the NMPC prediction model
APA, Harvard, Vancouver, ISO, and other styles
44

Toldov, Viktor. "Adaptive MAC layer for interference limited WSN." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10002/document.

Full text
Abstract:
A l'époque de l'Internet des Objets, le nombre de dispositifs communicants ne cesse d'augmenter. Souvent, les objets connectés utilisent des bandes de fréquences « industriel, scientifique et médical (ISM) » pour effectuer les communications. Ces bandes sont disponibles sans licence, ce qui facilite le déploiement de nouveaux objets connectés. Cependant, cela mène aussi au fait que le niveau d'interférences augmente dans les bandes ISM. Les interférences ont non seulement un impact négatif sur la qualité de service, mais aussi elles causent des pertes de messages couteuses en énergie, ce qui est particulièrement nocif pour les nœuds capteurs souvent limités en énergie. Dans cette thèse, l'impact des interférences sur la consommation énergétique des nœuds est étudié expérimentalement. Les résultats de ces expérimentations sont utilisés pour estimer la durée de vie des nœuds en fonction de différents niveaux d’interférence subis. Puis, un algorithme de Radio Cognitive (RC) basé sur la technique d’ échantillonnage de Thompson est proposé et évalué par la simulation et implémentation. Les résultats montrent que l'approche proposée trouve le meilleur canal plus vite que les autres techniques. De plus, une extension multi sauts pour RC est proposée et évaluée par expérimentation lors d'une compétition EWSN Dependability Competition. Finalement, le protocole adaptatif WildMAC est proposé pour le cas d'usage du projet LIRIMA PREDNET qui consiste à surveiller des animaux sauvages. Les performances sont évaluées par simulation avec le simulateur WSNet. Les résultats montrent que la solution proposée respecte les contraintes imposées par le projet PREDNET dans la zone ciblée
In the era of the Internet of Things, the number of connected devices is growing dramatically. Often, connected objects use Industrial, Scientific and Medical radio bands for communication. These kinds of bands are available without license, which facilitates development and implementation of new connected objects. However, it also leads to an increased level of interference in these bands. Interference not only negatively affects the Quality of Service, but also causes energy losses, which is especially unfavorable for the energy constrained Wireless Sensor Networks (WSN). In the present thesis the impact of the interference on the energy consumption of the WSN nodes is studied experimentally. The experimental results were used to estimate the lifetime of WSN nodes under conditions of different levels of interference. Then, a Thompson sampling based Cognitive Radio (CR) adaptive solution is proposed and evaluated via both, simulation and hardware implementation. Results show that this approach finds the best channel quicker than other state of the art solutions. An extension for multihop WSN was proposed for this CR solution and evaluated by hardware implementation in the framework of EWSN Dependability Competition. Finally, an adaptive WildMAC MAC layer protocol is proposed for the usecase of the LIRIMA PREDNET wildlife animal tracking project. Obtained field range test data were used to theoretically estimate cell densities and deployment zone coverage in this Low Power Widea Area Network (LPWAN). Then performance of the protocol was evaluated in WSNet simulation. The results show performance that allows to respect PREDNET project requirements with the given coverage
APA, Harvard, Vancouver, ISO, and other styles
45

Fragne, Didier. "Proposition de l'architecture de l'agent gestionnaire du modèle de l'apprenant dans un système tuteur multi-agents en apprentissage de la lecture : contribution au projet AMICAL." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00449160.

Full text
Abstract:
Dans le cadre de l'environnement multi-agents AMICAL, cette thèse se propose d'étudier les problématiques liées à la conception de l'agent gestionnaire du modèle de l'apprenant (AGMA). Par gestion du modèle de l'apprenant, nous entendons à la fois la construction de ce modèle ainsi que la réponse aux interrogations des autres agents de l'environnement concernant le contenu de celui-ci. Nos problématiques sont à la fois de réfléchir à une formalisation du modèle de l'apprenant dans un domaine particulier qu'est l'apprentissage de la lecture ainsi que de proposer des mécanismes de construction de ce modèle intégrés à AGMA. Pour remplir son rôle de modélisation, AGMA va analyser le compte-rendu de la session de travail réalisée avec l'apprenant puis intégrer les nouvelles hypothèses issues de cette analyse au modèle existant. La contribution apportée par nos travaux est de deux ordres. Premièrement, nous proposons une représentation du modèle de l'apprenant sous forme de système multi-agents cognitifs où chaque agent sera en charge d'une partie du modèle. Deuxièmement, nous proposons de voir l'architecture d'AGMA comme un système multi-agents. À partir de l'analyse des différents rôles d'AGMA, nous avons dégagé une architecture modulaire : un module communication responsable de la communication entre les modules d'AGMA et le reste du système, un module analyse en charge de l'analyse des séquences de travail avec l'apprenant et un module modèle en charge de stocker et de maintenir à jour le modèle en intégrant les nouvelles hypothèses issues de l'analyse. Pour accroître la rapidité d'exécution nous avons représenté chaque module comme un système multi-agents.
APA, Harvard, Vancouver, ISO, and other styles
46

Aouag, Sofiane. "Individualisation de l'apprentissage dans un Système Tuteur Intelligent : cas de l'apprentissage de la lecture dans un système AMICAL." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00658846.

Full text
Abstract:
Le problème traité dans cette thèse concerne l'individualisation de l'apprentissage dans un Système Tutoriel Intelligent dédié à l'apprentissage de la lecture pour les enfants en CP. On considère que l'individualisation de l'apprentissage est à la charge des agents rationnels qui se basent sur le modèle de l'apprenant pour intervenir sur les trois niveaux de l'individualisation : -individualisation de l'objectif de la prochaine session d'apprentissage, -individualisation de la séquence de situations didactiques types (plan d'enseignement) pour cet objectif, et enfin, -individualisation de l'activité didactique elle-même, pour arriver à la présentation de situations didactiques instanciées à l'élève. L'approche objet pédagogique a été adoptée pour représenter l'activité didactique et bénéficier de tous les avantages du paradigme orienté objet (réutilisation, adaptation souplesse). L'objet pédagogique ouvre sur des problèmes techniques (exigences technologiques) et d'autres pédagogiques (exigences théoriques ou rationnelles). La prise en compte des exigences théoriques nous a conduit à travailler sur la relation théorie-méthode, c'est-à-dire, proposer une méthode de conception prenant pour base théorique la théorie instrumentale pour concevoir l'objet pédagogique. Le travail de thèse montre comment utiliser le concept d'instrument pédagogique et le représenter dans le système informatique. Ce concept constitue aussi la clé de conception de l'agent d'individualisation intégré dans l'objet pédagogique. La conception d'un objet pédagogique intelligent intégrant l'agent d'individualisation de l'activité didactique introduit une nouvelle approche de conception appelée Agent-Objet pédagogique. Cette approche se base sur le principe du design pédagogique pour assurer une meilleure gestion de la tâche d'individualisation de l'activité didactique. Le rôle de l'agent d'individualisation de l'activité didactique est celui de l'instanciation des paramètres des modèles spécifiant les instruments pédagogiques (modèle de contenu, modèle cognitif, modèle d'interface et modèle didactique).On présente dans cette thèse des éléments théoriques et pratiques contribuant effectivement à la conception de l'agent d'individualisation de l'activité didactique. L'idée de base est que chaque agent utilise des connaissances complexes à partir du modèle de l'apprenant (connaissances à faire acquérir, cognition, attitudes, motivation, émotion et style d'apprentissage) pour scénariser l'activité didactique en suivant 3 phases : instanciation des paramètres de contenu pour la construction de la matière primaire pédagogique, préparation du matériel pédagogique représenté par l'ensemble d'instruments pédagogiques constituant l'activité didactique et finalement, adaptation du scénario d'utilisation des artefacts associés aux instruments pédagogiques.
APA, Harvard, Vancouver, ISO, and other styles
47

Ben, Jannet Mohamed Amer. "Évaluation adaptative des systèmes de transcription en contexte applicatif." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS041/document.

Full text
Abstract:
Il est important d'évaluer régulièrement les produits de l'innovation technologique afin d'estimer le niveau de maturité atteint par les technologies et d'étudier les cadres applicatifs dans lesquels elles pourront être exploitées. Le traitement automatique des langues (TAL) relève à la fois de la recherche et de l'innovation technologique et a pour but la modélisation et le développement d'outils permettant de traiter automatiquement le langage naturel. Pendant longtemps, les différentes briques technologiques issues du TAL étaient développées séparément. Par conséquent, les méthodes d'évaluation existantes sont dans la plupart modulaires et ne permettent d'évaluer qu'un seul module à la fois, alors qu'aujourd'hui nombreuses applications nécessitent de combiner plusieurs modules de TAL pour résoudre des tâches complexes. Le nouveau défi en terme d'évaluation est alors de pouvoir évaluer les différents modules (ou briques) tout en prenant en compte le contexte applicatif.Notre travail porte sur l'évaluation des systèmes de reconnaissance automatique de la parole (RAP) en contexte applicatif, en particulier, celui de la reconnaissance d'entités nommées (REN).En première partie, nous abordons la problématique de l'évaluation des systèmes de RAP en contexte applicatif à travers une étude de l'état de l'art. Nous y décrivons les tâche de RAP et de REN proposées dans les campagnes d'évaluation ainsi que les protocoles mis en place pour leurs évaluation. Nous y discutons également les limites des approches d'évaluations modulaires et nous y exposons les mesures alternatives proposées dans la littératures. En deuxième partie, nous décrivons la tâche de détection, classification et décomposition d'entités nommées étudiée et nous proposons une nouvelle métriques ETER (Entity Tree Error Rate) permettant de prendre en compte les spécificité de cette tâche et le contexte applicatif lors de l'évaluation. ETER permet également de supprimer les biais observés avec les métriques existantes. En troisième partie, nous définissons une nouvelle mesure ATENE (Automatic Transcriptions Evaluation for Named Entities) qui permet d'évaluer la qualité des systèmes de RAP et l'impact de leurs erreurs pour des systèmes de REN appliqués en aval. ATENE consiste à comparer les probabilités de présence d'entités sur les transcriptions de référence et d'hypothèse plutôt qu'une comparaison directe des graphèmes. Elle est composée de deux mesures élémentaires. Une première permettant l'évaluation de risque d'erreur d'omission et de substitution d'entités et une seconde permettant d'évaluer le risque d'erreur d'insertion d'entités causé par les erreurs de RAP.Nos expériences de validation montrent que les mesures données par ATENE corrèlent mieux que les autres mesures de l'état de l'art avec les performances des systèmes de REN
It is important to regularly assess the technological innovation products in order to estimate the level of maturity reached by the technology and study the applications frameworks in which they can be used. Natural language processing (NLP) aims at developing modules and applications that automatically process the human language. That makes the field relevant to beth research and technological innovation. For years, the different technological modules from the NLP were developed separately. Therefore, the existing evaluation methods are in most modular. They allow to evaluate only one module at a time, while today, many applications need to combine several NLP modules to solve complex tasks. The new challenge in terms of evaluation is then to evaluate the different modules while taking into account the applicative context.Our work addresses the evaluation of Automatic Speech Recognition (ASR) systems according to the applicative context. We will focus on the case of Named Entities Recognition (NER) from spoken documents transcriped automatically. In the first part, we address the issue of evaluating ASR systems according to the application context through a study of the state of the art. We describes the tasks of ASR and NER proposed during several evalution campaigns and we discuss the protocols established for their evaluation. We also point the limitations of modular evaluation approaches and we expose the alternatives measures proposed in the literature. In the second part we describe the studied task of named entities detection, classification and decomposition and we propose a new metric ETER (Entity Tree Error Rate) which allows to take into account the specificity of the task and the applicative context during the evaluation. ETER also eliminates the biases observed with the existing metrics. In the third part, we define a new measure ATENE (Automatic Transcriptions Evaluation for Named Entities) that evaluates the quality of ASR systems and the impact of their errors for REN systems applied downstream. Rather than directly comparing reference and hypothesis transcriptions, ATENE measure how harder it becames to identify entities given the differences between hypothesis and reference by comparing an estimated likelihood of presence of entities. It is composed of two elementary measurements. The first aims to assess the risk of entities deletions and substitutions and the second aims to assess the risk of entities insertions caused by ASR errors.Our validation experiments show that the measurements given by ATENE correlate better than other measures from the state of the art with the performance of REN systems
APA, Harvard, Vancouver, ISO, and other styles
48

Majed, Aliah. "Sensing-based self-reconfigurable strategies for autonomous modular robotic systems." Electronic Thesis or Diss., Brest, École nationale supérieure de techniques avancées Bretagne, 2022. http://www.theses.fr/2022ENTA0013.

Full text
Abstract:
Les systèmes robotiques modulaires (MRS) font aujourd’hui l’objet de recherches très actives. Ils ont la capacité de changer la perspective des systèmes robotiques, passant de machines conçues pour effectuer certaines tâches à des outils polyvalents capables d'accomplir presque toutes les tâches. Ils sont utilisés dans un large éventail d'applications, notamment la reconnaissance, les missions de sauvetage, l'exploration spatiale, les tâches militaires, etc. Constamment, MRS est constitué de "modules" allant de quelques à plusieurs centaines, voire milliers. Chaque module implique des actionneurs, des capteurs, des capacités de calcul et de communication. Habituellement, ces systèmes sont homogènes où tous les modules sont identiques ; cependant, il pourrait y avoir des systèmes hétérogènes contenant différents modules pour maximiser la polyvalence. L’un des avantages de ces systèmes est leur capacité à fonctionner dans des environnements difficiles dans lesquels les schémas de travail contemporains avec intervention humaine sont risqués, inefficaces et parfois irréalisables. Dans cette thèse, nous nous intéressons à la robotique modulaire auto-reconfigurable. Dans de tels systèmes, il utilise un ensemble de détecteurs afin de détecter en permanence son environnement, de localiser sa propre position, puis de se transformer en une forme spécifique pour effectuer les tâches requises. Par conséquent, MRS est confronté à trois défis majeurs. Premièrement, il offre une grande quantité de données collectées qui surchargent la mémoire de stockage du robot. Deuxièmement, cela génère des données redondantes qui compliquent la prise de décision concernant la prochaine morphologie du contrôleur. Troisièmement, le processus d'auto-reconfiguration nécessite une communication massive entre les modules pour atteindre la morphologie cible et prend un temps de traitement important pour auto-reconfigurer le robot. Par conséquent, les stratégies des chercheurs visent souvent à minimiser la quantité de données collectées par les modules sans perte considérable de fidélité. Le but de cette réduction est d'abord d'économiser de l'espace de stockage dans le MRS, puis de faciliter l'analyse des données et la prise de décision sur la morphologie à utiliser ensuite afin de s'adapter aux nouvelles circonstances et d'effectuer de nouvelles tâches. Dans cette thèse, nous proposons un mécanisme efficace de traitement de données et de prise de décision auto-reconfigurable dédié aux systèmes robotiques modulaires. Plus spécifiquement, nous nous concentrons sur la réduction du stockage de données, la prise de décision d'auto-reconfiguration et la gestion efficace des communications entre les modules des MRS dans le but principal d'assurer un processus d'auto-reconfiguration rapide
Modular robotic systems (MRSs) have become a highly active research today. It has the ability to change the perspective of robotic systems from machines designed to do certain tasks to multipurpose tools capable of accomplishing almost any task. They are used in a wide range of applications, including reconnaissance, rescue missions, space exploration, military task, etc. Constantly, MRS is built of “modules” from a few to several hundreds or even thousands. Each module involves actuators, sensors, computational, and communicational capabilities. Usually, these systems are homogeneous where all the modules are identical; however, there could be heterogeneous systems that contain different modules to maximize versatility. One of the advantages of these systems is their ability to operate in harsh environments in which contemporary human-in-the-loop working schemes are risky, inefficient and sometimes infeasible. In this thesis, we are interested in self-reconfigurable modular robotics. In such systems, it uses a set of detectors in order to continuously sense its surroundings, locate its own position, and then transform to a specific shape to perform the required tasks. Consequently, MRS faces three major challenges. First, it offers a great amount of collected data that overloads the memory storage of the robot. Second it generates redundant data which complicates the decision making about the next morphology in the controller. Third, the self reconfiguration process necessitates massive communication between the modules to reach the target morphology and takes a significant processing time to self-reconfigure the robotic. Therefore, researchers’ strategies are often targeted to minimize the amount of data collected by the modules without considerable loss in fidelity. The goal of this reduction is first to save the storage space in the MRS, and then to facilitate analyzing data and making decision about what morphology to use next in order to adapt to new circumstances and perform new tasks. In this thesis, we propose an efficient mechanism for data processing and self-reconfigurable decision-making dedicated to modular robotic systems. More specifically, we focus on data storage reduction, self-reconfiguration decision-making, and efficient communication management between modules in MRSs with the main goal of ensuring fast self-reconfiguration process
APA, Harvard, Vancouver, ISO, and other styles
49

Saïdi, Taofik. "Architectures matérielles pour la technologie WCDMA étendue aux systèmes mulit-antennes." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00446060.

Full text
Abstract:
Depuis une dizaine d'années, l'avènement des techniques multi-antennes (ou MIMO) pour les communications sans fil, mobiles ou fixes, a révolutionné les possibilités offertes pour de nombreux domaines d'application des télécommunications. La disposition de plusieurs antennes de part et d'autre du lien augmente considérablement la capacité des systèmes sans fil. Cependant, les al- gorithmes numériques à mettre en œuvre pour réaliser ces systèmes sont autrement complexes et constituent un challenge quant à la définition d'architectures matérielles performantes. L'objectif du travail présent repose précisément sur la définition optimale de solutions architecturales, dans un contexte CDMA, pour contrer cette problématique. Le premier aspect de ce travail porte sur une étude approfondie des algorithmes spatio- temporels et des méthodes de conception en vue d'une implantation matérielle efficace. De nom- breux schémas de détection sont proposés dans la littérature et sont applicables suivant trois critères qui sont : la qualité de service, le débit binaire et la complexité algorithmique. Cette dernière constitue une contrainte forte pour une mise en application à faible coût de terminaux mobiles intégrant ces applications. Aussi, il est nécessaire de disposer d'outils performants pour simuler, évaluer et affiner (prototypage rapide) ces nouveaux systèmes, candidats probables pour les télécommunications de quatrième génération. Le second aspect concerne la réalisation d'un transcepteur multi-antennes sans codage de ca- nal, intégrant la technologie d'accès multiple par répartition de codes dans le cas d'un canal large bande. Un système mono-antenne WCDMA, généralisable à un nombre quelconque d'antennes, a été intégré et simulé au sein de la plate-forme de prototypage rapide Lyrtech. L'architecture développée intègre les principaux modules du traitement en bande de base, à savoir le filtrage de Nyquist, la détection des multiples trajets suivie de l'étape de détection. Le prototype MIMO- WCDMA développé est caractérisé par sa flexibilité suivant le nombre de voies entrantes, le for- mat d'entrée des échantillons, les caractéristiques du canal sans fil et la technologie ciblée (ASIC, FPGA). Le troisième aspect se veut plus prospectif en détaillant de nouveaux mécanismes pour réduire le coût matériel des systèmes multi-antennes. Le principe d'allocation adaptative de la virgule fixe est présenté dans le but d'adapter le codage des données suivant les caractéristiques du canal sans fil et de minimiser en conséquence la complexité du circuit. D'autre part, le concept d'ar- chitectures adaptatives est proposé afin de minimiser l'énergie consommée au sein d'un système embarqué suivant le contexte d'application.
APA, Harvard, Vancouver, ISO, and other styles
50

Toussaint, Marion. "Une contribution à l'industrie 4.0 : un cadre pour sécuriser l'échange de données standardisées." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0121.

Full text
Abstract:
La récente transformation numérique de l'industrie a entraîné de nombreux avantages, allant de produits de meilleure qualité à une productivité accrue et à des délais de mise sur le marché plus courts. Dans ce monde numérique, les données sont devenues un élément essentiel dans de nombreuses décisions et processus critiques au sein et entre les organisations. L'échange de données est désormais un processus clé pour la communication, la collaboration et l'efficacité des organisations. L'adoption par l'industrie 4.0 de technologies de communication modernes a rendu ces données disponibles et partageables à un rythme plus rapide que nous ne pouvons les consommer ou les suivre. Cette vitesse apporte des défis importants tels que l'interopérabilité des données et la traçabilité des données, deux défis interdépendants auxquels les industriels sont confrontés et doivent comprendre pour adopter la meilleure position pour les relever. D'une part, les problèmes d'interopérabilité des données sont un frein à des innovations et des collaborations plus rapides. Le volume croissant d'échanges de données est associé à un nombre accru de systèmes hétérogènes qui ont besoin de communiquer et de se comprendre. Les normes d'information sont une solution prouvée, mais leur processus de développement long et complexe les empêche de suivre le rythme rapide de l'environnement qu'elles ont besoin de soutenir et d'assurer l'interopérabilité, ce qui ralentit leur adoption. Cette thèse propose une transition de la gestion de projet prédictive à adaptative avec l'utilisation de méthodes Agiles pour raccourcir les itérations de développement et augmenter la vitesse de livraison, augmentant ainsi l'adoption des normes. Alors que les environnements adaptatifs se sont révélés être une solution viable pour aligner les normes sur le rythme rapide de l'innovation de l'industrie, la plupart des solutions de gestion des exigences des projets n'ont pas évolué pour s'adapter à ce changement. Cette thèse introduit également un modèle pour soutenir une meilleure élicitation des exigences lors de l'élaboration des normes avec une traçabilité et une visibilité accrues. D'autre part, les décisions basées sur les données sont exposées à la vitesse à laquelle les données falsifiées peuvent se propager dans les organisations et corrompre ces décisions. Avec un temps moyen pour identifier (MTTI) et un temps moyen pour contenir (MTTC) une telle menace déjà proche de 300 jours, la croissance constante des données produites et échangées ne fera qu'accroître le MTTI et le MTTC. Bien que les signatures numériques aient déjà prouvé leur utilité pour identifier une telle corruption, un cadre formel de traçabilité des données est toujours nécessaire pour suivre l'échange de données sur des réseaux vastes et complexes d'organisations afin d'identifier et de contenir la propagation des données corrompues. Cette thèse analyse les cadres de cybersécurité existants, leurs limites et introduit un nouveau cadre basé sur des normes, sous la forme d'un profil NIST CSF étendu, pour se préparer, atténuer, gérer et suivre les attaques de manipulation de données. Ce cadre est également accompagné de conseils de mise en œuvre pour faciliter son adoption et sa mise en œuvre par les organisations de toutes tailles
The recent digital transformation of the manufacturing world has resulted in numerous benefits, from higher quality products to enhanced productivity and shorter time to market. In this digital world, data has become a critical element in many critical decisions and processes within and across organizations. Data exchange is now a key process for the organizations' communication, collaboration, and efficiency. Industry 4.0 adoption of modern communication technologies has made this data available and shareable at a quicker rate than we can consume or track it. This speed brings significant challenges such as data interoperability and data traceability, two interdependent challenges that manufacturers face and must understand to adopt the best position to address them. On one hand, data interoperability challenges delay faster innovation and collaboration. The growing volume of data exchange is associated with an increased number of heterogeneous systems that need to communicate with and understand each other. Information standards are a proven solution, yet their long and complex development process impedes them from keeping up with the fast-paced environment they need to support and provide interoperability for, slowing down their adoption. This thesis proposes a transition from predictive to adaptive project management with the use of Agile methods to shorten the development iterations and increase the delivery velocity, increasing standards adoption. While adaptive environments have shown to be a viable solution to align standards with the fast pace of industry innovation, most project requirements management solutions have not evolved to accommodate this change. This thesis also introduces a model to support better requirement elicitation during standards development with increased traceability and visibility. On the other hand, data-driven decisions are exposed to the speed at which tampered data can propagate through organizations and corrupt these decisions. With the mean time to identify (MTTI) and mean time to contain (MTTC) such a threat already close to 300 days, the constant growth of data produced and exchanged will only push the MTTI and MTTC upwards. While digital signatures have already proven their use in identifying such corruption, there is still a need for formal data traceability framework to track data exchange across large and complex networks of organizations to identify and contain the propagation of corrupted data. This thesis analyses existing cybersecurity frameworks, their limitations, and introduces a new standard-based framework, in the form of an extended NIST CSF profile, to prepare against, mitigate, manage, and track data manipulation attacks. This framework is also accompanied with implementation guidance to facilitate its adoption and implementation by organizations of all sizes
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography