Rozprawy doktorskie na temat „Système embarquée”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Système embarquée.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Système embarquée”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Tavares, Cláudia. "Un système de types pour la programmation par réécriture embarquée". Phd thesis, Université Henri Poincaré - Nancy I, 2012. http://tel.archives-ouvertes.fr/tel-00702301.

Pełny tekst źródła
Streszczenie:
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes.
Style APA, Harvard, Vancouver, ISO itp.
2

Oliveira, Kiermes Tavares Claudia Fernanda. "Un système de types pour la programmation par réécriture embarquée". Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0015/document.

Pełny tekst źródła
Streszczenie:
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes
In software engineering, type systems are often considered in order to prevent the occurrence of meaningless terms in regard to a type specification. When extending a given programming language with new dedicated features, the typing of these features must be compatible with the ones in the host language. This thesis is situated in the context of term rewriting embedded in object-oriented programming and aims to develop a safe type system featuring subtyping for the support of associative pattern matching on algebraic terms built from variadic operators. In this work we consider the Tom rewriting language that provides associative pattern matching constructs and rewrite strategies for Java. We describe Tom code evaluation through the definition of the operational semantics of the Tom language as an essential element to show that the type system is safe. The type system includes type checking and constraint-based type inference. The constraint language is composed of equality constraints solved by unification and subtyping constraints solved by a combination of simplification, generation of solution and garbage collecting. The type system was integrated in Tom which provides both stronger expressiveness and more safety able to ensure that the transformations described by rewrite rules preserve the type of terms
Style APA, Harvard, Vancouver, ISO itp.
3

Oliveira, Kiermes Tavares Claudia Fernanda. "Un système de types pour la programmation par réécriture embarquée". Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0015.

Pełny tekst źródła
Streszczenie:
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes
In software engineering, type systems are often considered in order to prevent the occurrence of meaningless terms in regard to a type specification. When extending a given programming language with new dedicated features, the typing of these features must be compatible with the ones in the host language. This thesis is situated in the context of term rewriting embedded in object-oriented programming and aims to develop a safe type system featuring subtyping for the support of associative pattern matching on algebraic terms built from variadic operators. In this work we consider the Tom rewriting language that provides associative pattern matching constructs and rewrite strategies for Java. We describe Tom code evaluation through the definition of the operational semantics of the Tom language as an essential element to show that the type system is safe. The type system includes type checking and constraint-based type inference. The constraint language is composed of equality constraints solved by unification and subtyping constraints solved by a combination of simplification, generation of solution and garbage collecting. The type system was integrated in Tom which provides both stronger expressiveness and more safety able to ensure that the transformations described by rewrite rules preserve the type of terms
Style APA, Harvard, Vancouver, ISO itp.
4

Merriaux, Pierre. "Contribution à la localisation robuste embarquée pour la navigation autonome". Rouen, 2016. http://www.theses.fr/2016ROUES018.

Pełny tekst źródła
Streszczenie:
Nous constatons ces dernières années un essor important de la robotique mobile autonome avec deux grands domaines d’application : la robotique des services et le véhicule autonome. Quel que soit le domaine visé, la fonction de localisation est déterminante pour l’autonomie de ces futurs mobiles. A ce titre, nous avons consacré ces travaux de thèse à l’approfondissement des problématiques de localisation à travers deux sujets proposant des méthodes embarquées. Dans un premier temps, avec le challenge international de robotique Argos : nous nous sommes attelés à une localisation 6 degrés de liberté basée LiDAR multi-nappes, avec une précision suffisante pour assurer le contrôle du robot. Les applications envisagées étant la surveillance des installations pétrochimiques, l’environnement rencontré est plus complexe que ceux couramment décrits dans la littérature. Nous avons mis particulièrement l’accent sur le côté embarquable, soit la consommation de ressources aussi bien en termes de mémoire que de CPU de l’algorithme. Pour cela, nous avons étendu le concept de likelihood field en 3D. L’algorithme a été évalué en laboratoire puis sur un site industriel, avec deux types de LiDAR et sur 3 robots. Nous atteignons une précision d’environ 2. 5 cm en utilisant 16% d’un core d’un processeur actuel. Cette méthode de localisation n’autorise pas une initialisation sur une large zone. Dans un second temps, nous avons donc proposé une localisation topologique de véhicules routiers permettant une convergence sur plusieurs kilomètres carrés. Nous n’utilisons que des capteurs présents dans tous les véhicules (ABS et ESP) et la carte est représentée par un graphe contenant des données Open Street Map. A partir de ces informations, nous obtenons une précision inférieure à 4 m, c’est-à-dire semblable à celle d’un GPS standard. Nos travaux portent également sur une méthodologie d’expérimentation. En effet, la mise au point d’algorithmes de localisation nécessite de nombreux ajustements. De plus, le test, la fiabilité puis la qualification de ces systèmes autonomes demeurent de véritables enjeux aussi bien pour la communauté scientifique qu’industrielle. Cette méthodologie contribue à répondre à ces challenges en fusionnant le développement des tests réalisés en simulation, à échelle réduite et pleine échelle
There has been a great and quick development in autonomous mobile robotics over the past few years. This growth mainly concerns autonomous vehicles and service robotics. Whatever the field of application, the localization task plays a key role in the intelligence of the mobile robots. As a result, this thesis is focused on exploring new challenges in embedding this aspect of artificial intelligence over two topics. First, we tackled the ARGOS Challenge. We have proposed a 6 Degrees of Freedom localization method based on multi-layer LiDAR data. Results show that the localization is accurate enough to perform autonomous control of the robot. Targeted applications include Oil and Gas platform patrolling. Such environments are more challenging than regular environments found in the literature. The proposed method takes into account concerns regarding CPU and memory consumption as well as embeddability. The likelihood field concept was extended to 3D. The method was benchmarked in a lab, an industrial site with single-layer and multi-layer LiDARs and 3 different robots. Robots are being located in their environment with an average error of 2. 5cm using 16% of a CPU core. Secondly, we focused on topological localization. In fact, the approach used in the ARGOS Challenge requires a small area as initial step. Our second approach enables to find the location of a road vehicle over several square kilometers. Ourmethod is based on sensorswidely available on any modern cars (ABS and ESP). Themap used is a topological representation of OpenStreet map data. Based on this information, we achieve an average error of 4m. This figure is close to GPS-based accuracy. Finally, our works are based on a specific experimental approach. In fact, developing new localization algorithms requires fine tunings. Moreover, tests, reliability and certifications of autonomous systems are still challenging for either the scientific community or the industry actors. The proposed methodology tends to propose a solution by mixing simulation, small-scale testing and full-scale testing
Style APA, Harvard, Vancouver, ISO itp.
5

Konlambigue, Kangbéni Djotiname. "Conception d'un système de localisation à l'intérieur de bâtiments par vision monoculaire embarquée". Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR022.

Pełny tekst źródła
Streszczenie:
Cette thèse a pour objectif la conception d’un système de localisation à l’intérieur de bâtiments. A ciel dégagé, le système de localisation presque incontournable est le GPS (Global Positioning System). En captant des signaux provenant d’au moins quatre satellites du réseau GPS en orbite, un récepteur GPS procède par triangulation et estime sa position, qu’il soit sur terre, sur mer ou dans les airs. Le GPS permet de déterminer la position de n’importe quel récepteur placé en visibilité du réseau de satellites et un défaut de cette visibilité conduit généralement à une localisation erronée, voire impossible ; ce qui est le cas à l’intérieur de bâtiments. L’intérêt grandissant pour les services d’aide à la navigation des personnes et des biens dans les grandes surfaces fermées telles que les hôpitaux, les aéroports et centres commerciaux par exemple a suscité le besoin de système de localisation fiable et fonctionnel en environnement fermé. Pour répondre à cette problématique, plusieurs solutions ont été proposées. Une des approches les plus répandues pour faire de la localisation en environnement fermé est celle basée sur le réseau WiFi. En mesurant la force des signaux émis par les différents points d’accès, ce type de système est capable de trianguler la position d’un récepteur. Néanmoins, un des principaux inconvénients de cette approche est qu’elle nécessite de déployer un réseau de points d’accès avec les différents coûts que l’on connaît tels que ceux liés à la maintenance du système. Dans cette thèse, le système que nous proposons est basé sur la vision par ordinateur. Pour être localisé, l’utilisateur prend une photo de son environnement et indexe une base de données d’images géoréférencées. Cette indexation consiste en une comparaison de caractéristiques extraites des différentes images par le biais d’algorithmes de vision tels l’algorithme SIFT (Scale Invariant Feature Transform). En comparaison avec le système par WiFi, nous proposons un système (presque) purement logiciel, qui ne nécessite donc aucun déploiement et donc pas de coûts liés à la maintenance
This thesis aims at the design of an indoor localization system. Outdoors, the almost unavoidable localization system is GPS (Global Positionning System). By receiving signals from at least four satellites from the GPS network orbiting, a GPC receiver triangulates and estimates its position, whether on land, at sea or in the air. GPS makes it possible to determine the position of any receiver placed in visibility of the satellite network and the defect in this visibility generally leads to an erroneous or even impossible localization ; which is the case in indoor environment. The growing interest in navigation assistance services for people and goods in large indoor areas such as hospitals, airports and shopping malls for example has created the need for a reliable and functional tracking system for indoor environment. To respond to this problem, several solutions have been proposed. One of the most popular approaches to localization in indoor environment is that based on the WiFi network. By measuring the strength of the signals emitted by the various access points, this type of system is able to triangulate the position of a receiver. However, one of the main drawbacks of this approach is that it requires deploying a network of access points with the various known costs such as those related tosystem maintenance. In this thesis, the system we propose is based on computer vision. To be located, the user takes a photo of their surroundings and indexes a databasz of georeferenced images. This indexing consists in a comparison of features extracted from the different images using computer vision algorithms such as the SIFT (Scale Invariant Feature Transform) algorithm. In comparison with the WiFi system, we offer (almost) a pure software system, which does not require any deployment and therefore no maintenance costs
Style APA, Harvard, Vancouver, ISO itp.
6

Elouardi, Abdelhafid. "Evaluation des rétines électroniques pour une définition architecturale d'un système monopuce (SoC) dédié à la vision embarquée". Paris 11, 2005. http://www.theses.fr/2005PA112055.

Pełny tekst źródła
Streszczenie:
Pour définir une architecture d'un système monpuce dédié à la vision embarquée, le travail de thèse s'est appuyé sur quatre modèles de systèmes de vision différents deux modèles utilisant des rétines qui peuvent assurer certains prétraitements d'images de bas niveau grâce aux opérateurs intégrés dans le même circuit du capteur imageur et deux autres modèles utilisant des capteurs CMOS/APS, des circuits reprogrammables types FPGA et un microporocesseur spécifique. Pour ces modules, une grande partie des traitements est réalisée sur le microprocesseur. Cet ensemble représente alors une plate-forme expérimentale pour l'instrumentation et l'évaluation de procédures de contrôle et de traitement des opérateurs rétiniens. La mise en œuvre de ces familles d'architectures nous a permis d'acquérir un niveau d'expertise dans le domaine de l'évaluation et l'instrumentation des systèmes de vision. Au travers de cette thèse, nous avons évalué plus profondément le système à base de la rétine PARIS1. L'évaluation a pris en compte les aspects suivants la programmabilité, l'évaluation de la puissance de calcul, l'énergie consommée et les problèmes d'embarquabilité. Cette étude a permisde définir une approche A3 (Adéquation, Algorithme, Architecture) pour un système de vision monopuce (System on Chip), doté des caractéristiques d'un système de vision intelligent et reconfigurable. Elle a eu aussi pour objectif de définir un compromis et des critères de sélections architecturales des opérateurs à intégrer sur le capteur en fonction des différents algorithmes à implanter et en prenant en considération les besoins de l'application envisagée : vision pour l'automobile
One of the solutions to resolve the computational complexity of image processing is to perform some low-level computations on the sensor focal plane. This work is built to get a general conclusion on the aptitude of retinas, as smart sensors, to become potential candidate for a system on chip reaching an algorithm/architecture adequacy. The study showed why retinas are advantageous, what elementary functions and/or operators should be added on chip and how to integrate image-processing algorithms (i. E. How to implement the smart sensor). The thesis includes recommendations on system-level architectures and discusses the limitations of the implementation of smart retinas which are categorized by the nature of image processing algorithms. To sustain the study, we have proposed a system-level architecture and a design methodology to integrate image processing within a CMOS retina on a single chip. This architecture model highlights a compromise between versatility, parallelism, processing speed and resolution. Our solution aims to take also into account the algorithms response times while reducing energy consumption to increase the system performances for embedding reasons. We have done a comparison relating four different architectures dedicated for a vision system on chip. Two models implement APS imagers and a microprocessor. A third model involves the same processor with a CMOS retina that implements hardware operators and analog microprocessors. The fourth model integrates a second CMOS retina and an embedded computer. The comparison is related to image processing speed, processing reliability, programmability, precision, subsequent stages of computations and power
Style APA, Harvard, Vancouver, ISO itp.
7

Belwafi, Kais. "Conception d'une architecture embarquée adaptable pour le déploiement d'applications d'interface cerveau machine". Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0896/document.

Pełny tekst źródła
Streszczenie:
L'objectif de ces travaux de recherche est l'étude et le développement d'un système ICM embarqué en utilisant la méthodologie de conception conjointe afin de satisfaire ses contraintes spécifiques. Il en a découlé la constitution d'un système ICM complet intégrant un système d'acquisition OpenBCI et un système de traitement à base de FPGA. Ce système pourrait être utilisé dans des contextes variés : médicale (pour les diagnostiques précoces des pathologies), technologique (informatique ubiquitaire), industriel (communication avec des robots), ludique (contrôler un joystick dans les jeux vidéo), etc. Dans notre contexte d’étude, la plateforme ICM proposée a été réalisée pour assister les personnes à mobilité réduite à commander les équipements domestiques. Nous nous sommes intéressés en particulier à l'étude et à l'implémentation des modules de filtrage adaptatif et dynamique, sous forme d'un coprocesseur codé en HDL afin de réduire son temps d'exécution car c'est le bloc le plus critique de la chaine ICM. Quant aux algorithmes d'extraction des caractéristiques et de classification, ils sont exécutés par le processeur Nios-II sous son système d'exploitation en ANSI-C. Le temps de traitement d'un trial par notre système ICM réalisé est de l'ordre de 0.4 s/trial et sa consommation ne dépasse guère 0.7 W
The main purpose of this thesis is to study and develop an embedded brain computer interface (BCI) system using HW/SW methodology in order to satisfy the system specifications. A complete BCI system integrated in an acquisition system (OpenBCI) and a hardware platform based on the FPGA were achieved. The proposed system can be used in a variety of contexts: medical (for early diagnosis of pathologies, assisting people with severe disabilities to control home devices system through thought), technological (ubiquitous computing), industrial (communication with Robots), games (control a joystick in video games), etc. In our study, the proposed ICM platform was designed to control home devices through the thought of people with severe disabilities. A particular attention has been given to the study and implementation of the filtering module, adaptive and dynamic filtering, in the form of a coprocessor coded in HDL in order to reduce its execution time as it is the critical block in the returned ICM algorithms. For the feature extraction and classification algorithms, they are executed in the Nios-II processor using ANSI-C language. The prototype operates at 200 MHz and performs a real time classification with an execution delay of 0.4 second per trial. The power consumption of the proposed system is about 0.7 W
Style APA, Harvard, Vancouver, ISO itp.
8

Larcher, Anthony. "Modèles acoustiques à structure temporelle renforcée pour la vérification du locuteur embarquée". Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00453645.

Pełny tekst źródła
Streszczenie:
La vérification automatique du locuteur est une tâche de classification qui vise à confirmer ou infirmer l'identité d'un individu d'après une étude des caractéristiques spécifiques de sa voix. L'intégration de systèmes de vérification du locuteur sur des appareils embarqués impose de respecter deux types de contraintes, liées à cet environnement : - les contraintes matérielles, qui limitent fortement les ressources disponibles en termes de mémoire de stockage et de puissance de calcul disponibles ; - les contraintes ergonomiques, qui limitent la durée et le nombre des sessions d'entraînement ainsi que la durée des sessions de test. En reconnaissance du locuteur, la structure temporelle du signal de parole n'est pas exploitée par les approches état-de-l'art. Nous proposons d'utiliser cette information, à travers l'utilisation de mots de passe personnels, afin de compenser le manque de données d'apprentissage et de test. Une première étude nous a permis d'évaluer l'influence de la dépendance au texte sur l'approche état-de-l'art GMM/UBM (Gaussian Mixture Model/ Universal Background Model). Nous avons montré qu'une contrainte lexicale imposée à cette approche, généralement utilisée pour la reconnaissance du locuteur indépendante du texte, permet de réduire de près de 30% (en relatif) le taux d'erreurs obtenu dans le cas où les imposteurs ne connaissent pas le mot de passe des clients. Dans ce document, nous présentons une architecture acoustique spécifique qui permet d'exploiter à moindre coût la structure temporelle des mots de passe choisis par les clients. Cette architecture hiérarchique à trois niveaux permet une spécialisation progressive des modèles acoustiques. Un modèle générique représente l'ensemble de l'espace acoustique. Chaque locuteur est représenté par une mixture de Gaussiennes qui dérive du modèle du monde générique du premier niveau. Le troisième niveau de notre architecture est formé de modèles de Markov semi-continus (SCHMM), qui permettent de modéliser la structure temporelle des mots de passe tout en intégrant l'information spécifique au locuteur, modélisée par le modèle GMM du deuxième niveau. Chaque état du modèle SCHMM d'un mot de passe est estimé, relativement au modèle indépendant du texte de ce locuteur, par adaptation des paramètres de poids des distributions Gaussiennes de ce GMM. Cette prise en compte de la structure temporelle des mots de passe permet de réduire de 60% le taux d'égales erreurs obtenu lorsque les imposteurs prononcent un énoncé différent du mot de passe des clients. Pour renforcer la modélisation de la structure temporelle des mots de passe, nous proposons d'intégrer une information issue d'un processus externe au sein de notre architecture acoustique hiérarchique. Des points de synchronisation forts, extraits du signal de parole, sont utilisés pour contraindre l'apprentissage des modèles de mots de passe durant la phase d'enrôlement. Les points de synchronisation obtenus lors de la phase de test, selon le même procédé, permettent de contraindre le décodage Viterbi utilisé, afin de faire correspondre la structure de la séquence avec celle du modèle testé. Cette approche a été évaluée sur la base de données audio-vidéo MyIdea grâce à une information issue d'un alignement phonétique. Nous avons montré que l'ajout d'une contrainte de synchronisation au sein de notre approche acoustique permet de dégrader les scores imposteurs et ainsi de diminuer le taux d'égales erreurs de 20% (en relatif) dans le cas où les imposteurs ignorent le mot de passe des clients tout en assurant des performances équivalentes à celles des approches état-de-l'art dans le cas où les imposteurs connaissent les mots de passe. L'usage de la modalité vidéo nous apparaît difficilement conciliable avec la limitation des ressources imposée par le contexte embarqué. Nous avons proposé un traitement simple du flux vidéo, respectant ces contraintes, qui n'a cependant pas permis d'extraire une information pertinente. L'usage d'une modalité supplémentaire permettrait néanmoins d'utiliser les différentes informations structurelles pour déjouer d'éventuelles impostures par play-back. Ce travail ouvre ainsi de nombreuses perspectives, relatives à l'utilisation d'information structurelle dans le cadre de la vérification du locuteur et aux approches de reconnaissance du locuteur assistée par la modalité vidéo
Style APA, Harvard, Vancouver, ISO itp.
9

Engel, Céline. "Optimisation des performances du système optique et estimation de la polarisation instrumentale de l'expérience embarquée sous ballon stratosphérique PILOT". Phd thesis, Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1891/.

Pełny tekst źródła
Streszczenie:
La mission PILOT a pour objectif l'étude de l'émission polarisée des grains de poussières du milieu interstellaire dans le domaine submillimétrique, à 240 et 550 µm. L'instrument scientifique sera embarqué à bord d'un ballon stratosphérique à une altitude d'environ 40 km. Un champ de vue de 0. 8°×1°, ainsi qu'une résolution de l'ordre de la minute d'arc sont requis pour atteindre les objectifs scientifiques. Pour cela, il est nécessaire d'utiliser à la fois un plan focal étendu, un miroir de grand diamètre ainsi qu'un système ré-imageur. Le télescope est de plus en configuration hors axe, une combinaison de forme et d'angle entre les miroirs primaire et secondaire doit donc être respectée de façon à optimiser la qualité image et à minimiser la polarisation instrumentale. L'objectif de mes travaux de thèse était d'estimer les performances optiques de ce système optique, ainsi que leurs variations en fonction des conditions de vol. Tous les composants optiques seront refroidis à 3 K, à l'exception du miroir primaire. Le contrôle des caractéristiques de ce miroir en fonction des conditions d'environnement est indispensable à l'obtention de performances optimales en vol. J'ai évalué les caractéristiques du miroir primaire en combinant des mesures tridimensionnelles, une caractérisation dans le domaine submillimétrique et des modélisations de déformées en température homogène, non homogène et en gravité. Les méthodes mise en place pour le miroir primaire ont également été appliquées aux lentilles du système ré-imageur. Les résultats obtenus sur le miroir primaire et les lentilles ont été intégrés à la modélisation du système optique. Il a ainsi été possible de valider l'adéquation entre les performances nominales et réelles et d'optimiser le positionnement de chaque composant optique pour l'intégration de l'instrument. Le degré de polarisation de l'émission polarisée des grains de poussières est de l'ordre de quelques pourcents. L'interprétation du signal mesuré par l'instrument nécessite donc une bonne connaissance de la polarisation instrumentale induite par l'instrument. J'ai estimé, par modélisation, les matrices de passage de l'instrument en fonction de la position du point du champ observé, de l'orientation du plan de polarisation de l'état de polarisation incident et de l'orientation de l'axe optique de la lame demi-onde. La campagne de tests de l'instrument intégré, me permettra de vérifier et d'optimiser ces matrices
The PILOT experiment will measure the polarized emission of interstellar dust grains, in the submillimeter range, at 240 and 550 µm. The scientific instrument will be on-board a stratospheric platform. A field of view of 0. 8°×1° and a resolution of about one arc minute are needed to reach the scientific objectives. For this purpose, the use of an extended focal plane, a large diameter primary mirror and a re-imaging system is needed. For the off axis telescope, we must respect a combination of shape and angle between the primary and secondary mirror, in order to optimize the image quality and to minimize the instrumental polarization. The aim of my thesis work was the evaluation of the performances of this optical system and the prediction of their variations in flight conditions. All the optical elements, except the primary mirror will be cooled to 3 K. The variations of the primary mirror characteristics with the environment must be well known in order to obtain optimal performances during the flight. For the evaluation of these characteristics, I used tridimensional measurements, submillimeter characterization and modelling of the deformations in various environmental conditions. The method used for the primary mirror was applied to the lenses of the reimaging system too. The actual modelling of the optical system includes these results and show that the optical performances are nominal. Using this realistic modelling, an optimization of the positionning of each optical element was done for the integration of the instrument. The polarization degree of the dust grain emission is expected to be only a few percent. For the interpretation of the instrument signal, it is necessary to have a good knowledge of the instrumental polarization. Using modelling with Zemax software, I have determined the Stokes parameters for several positions of the optical axis of the half waveplate, different orientations of the incident polarization state and for a set of positions in the field of view. During the ground tests of the integrated instrument, I will verify and optimize these parameters
Style APA, Harvard, Vancouver, ISO itp.
10

Engel, Céline. "Optimisation des performances du système optique et estimation de la polarisation instrumentale de l'expérience embarquée sous ballon stratosphérique PILOT". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00821057.

Pełny tekst źródła
Streszczenie:
La mission PILOT a pour objectif l'étude de l'émission polarisée des grains de poussières du milieu interstellaire dans le domaine submillimétrique, à 240 et 550 μm. L'instrument scientifique sera embarqué à bord d'un ballon stratosphérique à une altitude d'environ 40 km. Un champ de vue de 0.8°×1°, ainsi qu'une résolution de l'ordre de la minute d'arc sont requis pour atteindre les objectifs scientifiques. Pour cela, il est nécessaire d'utiliser à la fois un plan focal étendu, un miroir de grand diamètre ainsi qu'un système ré-imageur. Le télescope est de plus en configuration hors axe, une combinaison de forme et d'angle entre les miroirs primaire et secondaire doit donc être respectée de façon à optimiser la qualité image et à minimiser la polarisation instrumentale. L'objectif de mes travaux de thèse était d'estimer les performances de ce système optique, ainsi que leurs variations en fonction des conditions de vol. Tous les composants optiques seront refroidis à 3 K, à l'exception du miroirprimaire. Le contrôle des caractéristiques de ce miroir en fonction des conditions d'environnement est indispensable à l'obtention de performances optimales en vol. J'ai évalué les caractéristiques du miroir primaire en combinant des mesures tridimensionnelles, une caractérisation dans le domaine submillimétrique et des modélisations de déformées en température homogène, non homogène et en gravité. Les méthodes mise en place pour le miroir primaire ont également été appliquées aux lentilles du système ré-imageur. Les résultats obtenus sur le miroir primaire et les lentilles ont été intégrés à la modélisation du système optique. Il a ainsi été possible de valider l'adéquation entre les performances nominales et réelles et d'optimiser le positionnement de chaque composant optique pour l'intégration de l'instrument. Le degré de polarisation de l'émission polarisée des grains de poussières est de l'ordre de quelques pourcents. L'interprétation du signal mesuré par l'instrument nécessite donc une bonne connaissance de la polarisation instrumentale induite par l'instrument. J'ai estimé, par modélisation, les matrices de passage de l'instrument en fonction de la position du point du champ observé, de l'orientation du plan de polarisation de l'état de polarisation incident et de l'orientation de l'axe optique de la lame demi-onde. La campagne de tests de l'instrument intégré, me permettra de vérifier et d'optimiser ces matrices.
Style APA, Harvard, Vancouver, ISO itp.
11

Tritschler, Philip. "Optimisation de l'architecture électrique et gestion d'énergie pour un système à pile à combustible embarquée dédiée à l'application agricole". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00565680.

Pełny tekst źródła
Streszczenie:
Les travaux de cette thèse portent sur l'intégration d'un système à pile à combustible hybride dans un tracteur agricole. Dans notre travail, plusieurs architectures de réseaux électriques embarquées et de stratégies de gestion de l'énergie sont envisagées. Une modélisation du système complet est mise en place sous Matlab Simulink afin de pouvoir simuler les différents scénarii envisagés, de même qu'un banc de test permettant de valider les résultats issus des simulations purement numériques. L'objectif premier de ce travail est d'optimiser les flux énergétiques relatifs aux diverses sources et charges constitutives du système et ainsi de réduire la consommation du véhicule pour des cycles de mission agricoles. Cette thèse découle d'un projet de recherche commun entre le G2ELab, le CEA Grenoble et l'entreprise AGCO, implémenté en France à Beauvais qui commercialise des machines agricoles sous quatre marques : Massey Ferguson, Fendt, Valtra et Challenger.
Style APA, Harvard, Vancouver, ISO itp.
12

Rullan, Lara José Luis. "Conception et implantation embarquée d'un système de localisation en utilisant les signaux radio pour la stabilisation d'un mini drone". Compiègne, 2011. http://www.theses.fr/2011COMP1984.

Pełny tekst źródła
Streszczenie:
Les drones sont des véhicules aériens complexes et difficiles à commander. Malgré les efforts réalisés sur la stabilisation du drone (saturations emboitées et séparées, backstepping, etc), les lois de commande ont toujours été focalisées à stabiliser l'orientation du véhicule et peu de travaux ont portés sur l'estimation de sa position. Des nombreuses approches ont été proposées pour l'estimation de la position, notamment la vision pour les environnements à l'intérieur et le GPS à l'extérieur. Cependant, il reste un grand nombre de difficultés à surmonter pour son application dans les drones. Ce travail s'inscrire dans la recherche d'une solution au problème de positionnement des drones dans des environnements à l'intérieur en utilisant les signaux radio. Étant donné que les mesures réelles sont bruyantes et non directement observables ou mesurables avec les capteurs, l'estimation de la position pose un problème difficile à résoudre. Les algorithmes des k-plus proches voisins, les moindres carrés et le filtre de Kalman ont été testé et validé en temps réels. La validation des schémas de localisation a été faite en vol stationnaire et en vol suivant une ligne. Concernant à la validation en temps réel, j'ai développé un mini hélicoptère à quatre rotors avec une architecture informatique pour l'implantation embarquée des lois de commandes pour son stabilisation ainsi que pour l'implantation des algorithmes de localisation
The Unmanned Aerial Vehicles are complex and difficult dynamic systems to control. In spite of the efforts realized on the stabilization approaches (nested saturation, back-stepping, etc. ), the control laws have been always focused to stabilize the orientation of the vehicle and few works has been developed to estimate its position. Since real measurements are noisy and are not directly observable or measurable from the sensors, the estimation of the position is a difficult problem to resolve. Numerous approaches have been proposed for position’s estimation. In particular, vision and GPS have been explored in indoor and outdoor, respectively. However, there remain many challenges to its application in UAVs. This dissertation presents a solution to the problem of location of UAV indoor using radio signals. The k-nearest neighbor (KNN) algorithm, the least squares algorithm and the Extended Kalman filter have been tested and validated in real time. The performances of the algorithms were validated during hover flight and path following flight of a mini helicopter. In order to validate the algorithms, I developed a mini helicopter with four rotors (quad rotor) with the computer architecture for implementing onboard embedded control laws for its stability and for the implementation of localization tasks
Style APA, Harvard, Vancouver, ISO itp.
13

Avina, Bravo Eli Gabriel. "Conception, développement et validation d'un système intelligent de mesure physiologique et biomécanique embarqué : Vélo à assistance électrique avec IA pour les interventions thérapeutiques et la prévention santé". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. https://theses.hal.science/tel-04651974.

Pełny tekst źródła
Streszczenie:
Selon les projections de l'Organisation mondiale de la santé (OMS), il est estimé qu'en 2050, plus de 22 % de la population mondiale aura 60 ans ou plus. Cette évolution démographique s'accompagne d'une prévalence croissante des maladies chroniques. En France, une personne sur quatre souffre actuellement d'une maladie chronique, un chiffre qui atteint trois personnes sur quatre chez les personnes âgées de 65 ans et plus. Ces maladies contribuent de manière significative à la mortalité, représentant 74 % du nombre total de décès en 2019. Heureusement, bon nombre de ces affections peuvent être prévenues ou retardées en suivant les recommandations d'activité physique de l'OMS. De nombreuses études ont démontré l'impact profond de l'activité physique sur la prolongation de l'espérance de vie et l'amélioration de la qualité de vie de la population. Dans cette optique, les objectifs de recherche de cette étude s'inscrivent dans le domaine de la Gestion de la santé prédictive (PHM) et de la prescription du sport, en mettant l'accent sur le parcours de soins des patients atteints de maladies chroniques. Cependant, la modalité précise du contrôle, en particulier le mécanisme de rétroaction concernant le comportement des individus pendant l'activité physique, reste à déterminer. Pour relever ce défi, le projet propose la mise en place d'un dispositif médical connecté, spécifiquement un vélo à assistance électrique intégré à une intelligence artificielle embarquée. Cette combinaison vise à recueillir des données et à contribuer à la prévention des pathologies chroniques chez les individus. L'effort scientifique principal consiste à concevoir et intégrer une architecture matérielle et logicielle innovante et adaptable, en incorporant des capteurs de pointe utilisant une technologie flexible. Ce cadre permet la surveillance à la fois des cyclistes occasionnels et expérimentés pendant leur pratique, en permettant un contrôle intelligent du niveau d'assistance électrique et la mise en œuvre d'instructions médicales basées sur des évaluations médicales préalables
According to projections by the World Health Organization (WHO), it is estimated that by 2050, more than 22% of the global population will be aged 60 years or older. This demographic shift is accompanied by a growing prevalence of chronic diseases. In France, one in four individuals currently suffers from a chronic condition, a proportion that rises to three out of four among those aged 65 and above. These diseases significantly contribute to mortality, accounting for 74% of total deaths in 2019. Fortunately, many of these conditions can be prevented or delayed by adhering to the physical activity recommendations provided by the WHO. Extensive research has demonstrated the profound impact of physical activity on prolonging lifespan and enhancing overall quality of life across populations. With this perspective in mind, the research objectives of this study lie within the realm of Prognosis Health Management (PHM) and prescription sports, with a specific emphasis on the healthcare trajectory of patients with chronic conditions. However, the precise methodology for control, particularly the feedback mechanism pertaining to individuals' behavior during physical activity, remains to be delineated. To tackle this challenge, the project proposes the implementation of a connected medical device, specifically an electric-assisted bicycle integrated with embedded artificial intelligence. This combination aims to collect data and contribute to the prevention of chronic pathologies for individuals. The primary scientific endeavor entails designing and integrating an innovative and adaptable hardware and software architecture, incorporating state-of-the-art sensors that utilize flexible technology. This framework facilitates the monitoring of both occasional and experienced cyclists during their practice, enabling intelligent control of the level of electrical assistance and the implementation of medical instructions based on prior medical assessments
Style APA, Harvard, Vancouver, ISO itp.
14

Hautiere, Nicolas. "Détection des conditions de visibilité et estimation de la distance de visibilité par vision embarquée". Phd thesis, Université Jean Monnet - Saint-Etienne, 2005. http://tel.archives-ouvertes.fr/tel-00068743.

Pełny tekst źródła
Streszczenie:
Les conditions météorologiques dégradées, en particulier le brouillard, posent un problème à la fois aux automobilistes qui ont tendance à surestimer les distances intervéhiculaires, mais aussi aux capteurs extéroceptifs qui fonctionnent de manière dégradée. La détection et la quantification des conditions de visibilité constituent donc un enjeu fort en termes de sécurité routière. Nous proposons deux techniques complémentaires permettant d'effectuer une mesure embarquée de la distance de visibilité par des techniques d'analyse d'images effectuées en temps réel. Elles reposent sur une définition de la distance de visibilité météorologique, distance au delà de laquelle un objet noir de dimensions suffisantes ne peut être reconnu de jour sur le ciel à l'horizon. La première technique, fondée sur un modèle de diffusion atmosphérique, détecte et estime la densité du brouillard diurne en utilisant une seule caméra. La deuxième technique, mettant à profit une propriété générale de l'atmosphère, est capable d'estimer la distance de visibilité par toutes conditions météorologiques, de jour et de nuit, en utilisant, pour sa part, un capteur stéréoscopique. Nous évaluons, d'une part, les méthodes à l'aide d'images réelles acquises sur véhicule sous différentes conditions météorologiques, ce qui constitue une évaluation qualitative du travail réalisé. Nous évaluons d'autre part les méthodes à l'aide d'images acquises sur un site spécifique équipé de mires de référence, conçu et réalisé sur les pistes d'essai de Satory, ce qui constitue une évaluation quantitative.
Style APA, Harvard, Vancouver, ISO itp.
15

Idrissa, Abdourhamane. "Traçabilité sécurisée embarquée : authentification autonome d'objets et de systèmes embarqués". Phd thesis, Université Jean Monnet - Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00961384.

Pełny tekst źródła
Streszczenie:
L'authentification homme-machine est une problématique largement développée pour les télécommunications. Une authentification dans le sens "machine-homme" permettra d'assurer l'utilisateur humain assermenté du fonctionnement intègre d'une machine lors, par exemple, d'une session de vote électronique ou d'une vérification d'objet en traçabilité sécurisée. Cette thèse se focalise sur la traçabilité sécurisée sans accès (systématique) à un canal de communication. Nous décrivons différentes techniques d'authentification de produits manufacturés en nous concentrant sur une méthode de caractérisation de motifs imprimés. Pour effectivement authentifier un objet, nous montrons qu'un agent vérifieur doit s'assurer de l'intégrité du tiers et du système électronique utilisée pour la vérification. Cependant l'authenticité du système électronique lui-même reste à vérifier. La question que nous adressons alors est la suivante : comment un être humain peut-il se convaincre de l'intégrité et de l'authenticité d'un système embarqué dans un mode hors ligne ? Nous définissons deux familles de solutions. Dans la première, l'utilisateur fait appel, pour les calculs, à un dispositif auxiliaire tandis que dans la seconde l'utilisateur ne fait usage que d'un papier et d'un crayon. Pour chacune des deux familles, nous proposons un protocole d'authentification d'un système embarqué dont la puce, typiquement un FPGA ou un microcontrôleur, dépend de la configuration ou de la programmation d'une mémoire RAM
Style APA, Harvard, Vancouver, ISO itp.
16

Adwan, Adam. "Étude d'un système de détection d'occupants pour les airbags intelligents". Paris 6, 2002. http://www.theses.fr/2002PA066384.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
17

Lastapis, Mathieu. "Surveillance de la santé des structures aéronautiques en composites : développement d'un système embarqué à base d'accéléromètres". Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0021.

Pełny tekst źródła
Streszczenie:
La surveillance de santé structurelle, SHM en anglais, est un domaine en plein essor avec l'arrivée massive des composites dans les transports. Ce matériau plus léger que les alliages traditionnels investit les avions, les trains, les bateaux ou les voitures. Permettant des économies substantielles d'énergie, il présente néanmoins l'inconvénient de pouvoir développer des défauts internes invisibles par une inspection visuelle. Dès lors leur surveillance est primordiale. Les pales d'avions turbopropulseurs (A400M, ATR, etc…) répondent aux mêmes exigences. Etre capable de déterminer un endommagement de la structure par le biais de capteur est tout l'enjeu des recherches. Cet objectif implique deux points : étudier le comportement de la pale et y développer un système embarqué pour obtenir des données et/ou surveiller. Dans ce contexte, ce travail de recherche a pour objectif de mener les premières études en déterminant une premier modèle comportementale des pales; en développant un premier microsystème enregistreur de paramètres de pales; en élaborant un premier algorithme de surveillance de la pale et d'événements endommageant (impacts, survitesses, survibrations)
The structural health monitoring, or SHM, represents today a key challenge today, with a massive use of composites in the field of transport. This material, lighter than a conventional alloy, is very attractive for airplanes, trains, boats or cars manufacturing. This allows significant energy savings, but can hide internal defects invisible from the outside. At this point, dedicated supervision is essential. Blades of turboprop plane (A400M, ATR, etc.) are in face of the same problems. Determination of structural defects by the use of sensors is the key solution for the research in this field. Thus, this problem has two solutions: studying blade performances and designing an embedded system able to record data and/or monitoring the structural health. The research studies presented in this thesis represent the first results of damaged blade performances. It leads to the design of a first embedded data recorder of blade parameters and computes a first dedicated algorithm for monitoring the blade structural health and damaging events (shocks, over-speeds, over-vibrations)
Style APA, Harvard, Vancouver, ISO itp.
18

Escareno, Juan Antonio. "Conception, modélisation et commande d'un drone convertible". Compiègne, 2008. http://www.theses.fr/2008COMP1746.

Pełny tekst źródła
Streszczenie:
Le but de cette thèse est de développer un véhicule convertible non piloté. Le projet est divisé en trois objectifs : la conception, la modélisation et la commande du véhicule. La conception de l'aéronef est un compromis entre un véhicule à voilure fixe (de type avion) et un véhicule à voilure tournant (de type hélicopte��re), grâce à cette combinaison il offre une grande versatilité pour envisager de différents types de taches. La modélisation est obtenue à partir des formulations Newton-Euler et Lagrange. Au niveau des commandes, les aéronefs convertibles exigent des algorithmes spécifiques de commande pour manipuler le décollage, le vol stationnaire, le vol vers l'avant aussi bien que la transition entre les deux modes de fonctionnement
The goal of this thesis is developing a convertible unmanned aerial vehicle (UAV). The project is divided in three objects : the design, the modeling and the control of the vehicle. The design of the vehicle is a trade-off between a fixed-wing vehicle (airplane) and a rotary-wing vehicle (helicopter), thanks to this combination it offers a great versatility to face different kind of missions. The modeling is obtained through the Newton-Euler and Lagrange formulation. In terms of control, the convertible aircraft require specific algorithms to manipulate the take-off, the haver, the forward flight and the transition between both operation modes
Style APA, Harvard, Vancouver, ISO itp.
19

Charra, Olivier. "Conception de noyaux de systèmes embarqués reconfigurables". Grenoble 1, 2004. http://www.theses.fr/2004GRE10047.

Pełny tekst źródła
Streszczenie:
La perspective de l'émergence d'un environnement global du traitement de l'information dans lequel la plupart des objets physiques qui nous entourent seront équipés de processeurs, dotés de capacités de communication et interconnectés par le biais de réseaux divers, nous oblige à repenser les systèmes informatiques. Aux systèmes traditionnels, lourds, monolithiques, et peu évolutifs, nous devons préférer les systèmes légers, flexibles, et reconfigurables. Cette thèse présente une architecture permettant la conception et le développement de noyaux de systèmes d'exploitation flexibles et reconfigurables à destination du monde de l'embarqué
The vision of the emergence of a global environment for the information management where most of the physical object around us will be equipped with processors, communication capabilities and interconnected through various networks forces us to redesign the computing systems. Instead of heavy, monolithic and non-evolutive systems, we must design light, flexible and reconfigurable systems. This work presents a new architecture allowing the conception and development of flexible and reconfigurable operating system kernels for embedded systems
Style APA, Harvard, Vancouver, ISO itp.
20

Gatti, Marc. "Évolution des Architectures des Systèmes Avioniques Embarqués". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066725/document.

Pełny tekst źródła
Streszczenie:
De nos jours, les systèmes embarqués sont les éléments Cœurs des Systèmes avioniques. De plus en plus de fonctions sont intégrées et de ce fait leurs complexités croît. Afin que cette complexité puisse rester maîtrisable, l’architecture des systèmes avionique a également évolué de façon à minimiser les interactions entre les équipements. Cette évolution des Architectures a introduit, au niveau avionique, la notion de réseau largement répandue dans le monde dit « consumer ». Nos travaux de Recherche ont pour but d’accompagner cette évolution architecturale en minimisant l’impact des ruptures technologiques qu’il a été nécessaire d’introduire afin de supporter cette évolution. Pour cela, nous proposons une approche qui va nous permettre de dé-risquer chaque nouvelle brique technologique avant son introduction au sein des Systèmes Embarqués. Cette introduction pourra donc être réalisée en ayant au préalable défini les conditions ainsi que les limites d’utilisation de chaque nouvelle technologie, qu’elle soit matérielle et/ou logicielle
Nowadays, Embedded Systems are key elements of the Avionic Systems. As more and more functions are integrated, their complexity goes increasing. In order to keep mastering this complexity, Avionic Systems Architecture has also evolved so as to minimize the interactions between equipment. This evolution of the Architectures introduced, at the avionic level, the notion of network widely spread in the consumer domain. Our research works aim at accompanying this architectural evolution by minimizing the impact of the technological breakthroughs which were necessary to introduce to support this evolution. For that purpose, we propose an approach which is going to allow us to derisk every new technological brick before its introduction within the Embedded Systems. This introduction can thus be performed by having beforehand defined the conditions as well as the limits of use of every new technology that it is Hardware and/or Software
Style APA, Harvard, Vancouver, ISO itp.
21

Gatti, Marc. "Évolution des Architectures des Systèmes Avioniques Embarqués". Electronic Thesis or Diss., Paris 6, 2016. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2016PA066725.pdf.

Pełny tekst źródła
Streszczenie:
De nos jours, les systèmes embarqués sont les éléments Cœurs des Systèmes avioniques. De plus en plus de fonctions sont intégrées et de ce fait leurs complexités croît. Afin que cette complexité puisse rester maîtrisable, l’architecture des systèmes avionique a également évolué de façon à minimiser les interactions entre les équipements. Cette évolution des Architectures a introduit, au niveau avionique, la notion de réseau largement répandue dans le monde dit « consumer ». Nos travaux de Recherche ont pour but d’accompagner cette évolution architecturale en minimisant l’impact des ruptures technologiques qu’il a été nécessaire d’introduire afin de supporter cette évolution. Pour cela, nous proposons une approche qui va nous permettre de dé-risquer chaque nouvelle brique technologique avant son introduction au sein des Systèmes Embarqués. Cette introduction pourra donc être réalisée en ayant au préalable défini les conditions ainsi que les limites d’utilisation de chaque nouvelle technologie, qu’elle soit matérielle et/ou logicielle
Nowadays, Embedded Systems are key elements of the Avionic Systems. As more and more functions are integrated, their complexity goes increasing. In order to keep mastering this complexity, Avionic Systems Architecture has also evolved so as to minimize the interactions between equipment. This evolution of the Architectures introduced, at the avionic level, the notion of network widely spread in the consumer domain. Our research works aim at accompanying this architectural evolution by minimizing the impact of the technological breakthroughs which were necessary to introduce to support this evolution. For that purpose, we propose an approach which is going to allow us to derisk every new technological brick before its introduction within the Embedded Systems. This introduction can thus be performed by having beforehand defined the conditions as well as the limits of use of every new technology that it is Hardware and/or Software
Style APA, Harvard, Vancouver, ISO itp.
22

Dessiatnikoff, Anthony. "Analyse de vulnérabilités de systèmes avioniques embarqués : classification et expérimentation". Phd thesis, INSA de Toulouse, 2014. http://tel.archives-ouvertes.fr/tel-01032444.

Pełny tekst źródła
Streszczenie:
L'évolution actuelle des systèmes embarqués à bord des systèmes complexes (avions, satellites, navires, automobiles, etc.) les rend de plus en plus vulnérables à des attaques, en raison de : (1) la complexité croissante des applications ; (2) l'ouverture des systèmes vers des réseaux et systèmes qui ne sont pas totalement contrôlés ; (3) l'utilisation de composants sur étagère qui ne sont pas développés selon les méthodes exigées pour les systèmes embarqués critiques ; (4) le partage de ressources informatiques entre applica- tions, qui va de pair avec l'accroissement de puissance des processeurs. Pour faire face aux risques de malveillances ciblant les systèmes embarqués, il est nécessaire d'appli- quer ou d'adapter les méthodes et techniques de sécurité qui ont fait leurs preuves dans d'autres contextes : Méthodes formelles de spécification, développement et vérification ; Mécanismes et outils de sécurité (pare-feux, VPNs, etc.) ; Analyse de vulnérabilités et contre-mesures. C'est sur ce dernier point que portent nos travaux de thèse. En effet, cet aspect de la sécurité a peu fait l'objet de recherche, contrairement aux méthodes formelles. Cependant, il n'existe pas actuellement de modèle formel capable de couvrir à la fois des niveaux d'abstraction suffisamment élevés pour permettre d'exprimer les propriétés de sécurité désirées, et les détails d'implémentation où se situent la plupart des vulnérabilités susceptibles d'être exploitées par des attaquants : fonctions des noyaux d'OS dédiées à la protection des espaces d'adressage, à la gestion des interruptions et au changement de contextes, etc. ; implémentation matérielle des mécanismes de protection et d'autres fonctions ancillaires. C'est sur ces vulnérabilités de bas niveau que se focalise notre étude. Nos contributions sont résumées par la suite. Nous avons proposé une classification des attaques possibles sur un système temps-réel. En nous basant sur cette classification, nous avons effectué une analyse de vulnérabilité sur un système réaliste : une plateforme avionique expérimentale fournie par Airbus. Il s'agit d'un noyau temps-réel critique or- donnancé avec plusieurs autres applications, le tout exécuté sur une plateforme Freescale QorIQ P4080. C'est à travers une application dite " malveillante ", présente parmi l'en- semble des applications, que nous essayons de modifier le comportement des autres appli- cations ou du système global pour détecter des vulnérabilités. Cette méthode d'analyse de vulnérabilités a permis de détecter plusieurs problèmes concernant les accès mémoire, la communication entre applications, la gestion du temps et la gestion des erreurs qui pouvaient conduire à la défaillance du système global. Enfin, nous avons proposé des contre-mesures spécifiques à certaines attaques et des contre-mesures génériques pour le noyau temps-réel qui permet d'empêcher une application d'obtenir des accès privilégiés ou encore de perturber le comportement du système.
Style APA, Harvard, Vancouver, ISO itp.
23

Gemayel, Charbel El. "Approche comportementale pour la validation et le test système des systèmes embarqués : Application aux dispositifs médicaux embarqués". Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0135/document.

Pełny tekst źródła
Streszczenie:
Les progrès des technologies de l'information et de la communication, des MEMS, des capteurs, actionneurs, etc. ont permis l’émergence de différents dispositifs biomédicaux. Ces nouveaux dispositifs, souvent embarqués, contribuent considérablement à l'amélioration du diagnostic et du traitement de certaines maladies, comme le diabète par exemple. Des dispositifs embarqués encore plus complexes sont en cours d’élaboration, leur mise en œuvre nécessite des années de recherche et beaucoup d’expérimentation. Le cœur artificiel, encore en phase de réalisation, est un exemple concret de ces systèmes complexes. La question de la fiabilité, du test de fonctionnement et de sureté de ces dispositifs reste problématique et difficile à résoudre. Plusieurs paramètres (patient, évolution de la maladie, alimentation, activité, traitement, etc.) sont en effet à prendre en compte et la conséquence d’une erreur de fonctionnement peut être catastrophique pour le patient. L'objectif de cette thèse est de développer des outils et des approches méthodologiques permettant la validation et le test au niveau système de ce type de dispositifs. Il s’agit précisément d’étudier la possibilité de modéliser et simuler d’une manière conjointe un dispositif médical ainsi que son interaction avec le corps humain, du moins la partie du corps humain concernée par le dispositif médical, afin de mesurer les performances et la qualité de services (QoS) du dispositif considéré. Pour atteindre cet objectif notre étude a porté sur plusieurs points. Nous avons d’abord mis en évidence une architecture simplifiée d’un modèle de corps humain permettant de représenter et de mieux comprendre les différents mécanismes du corps humain. Nous avons ensuite exploré un ensemble de métriques et une approche méthodologique générique permettant de qualifier la qualité de service d’un dispositif médical donné en interaction avec le corps humain. Afin de valider notre approche, nous l’avons appliquée à un dispositif destiné à la régulation du taux de sucre pour des patients atteints du diabète. La partie du corps humain concernée par cette pathologie à savoir le pancréas a été simulé par un modèle simplifié que nous avons implémenté sur un microcontrôleur. Le dispositif de régulation de l’insuline quant à lui a été simulé par un modèle informatique écrit en C. Afin de rendre les mesures de performances observées indépendantes d’un patient donné, nous avons étudiés différentes stratégies de tests sur différentes catégories de patients. Nous avons pour cette partie mis en œuvre un générateur de modèles capable de reproduire différents états physiologiques de patients diabétiques. L’analyse et l’exploitation des résultats observés peut aider les médecins à considérablement limités les essais cliniques sur des vrai patients et les focaliser uniquement sur les cas les plus pertinent
A Biomedical research seeks good reasoning for solving medical problems, based on intensive work and great debate. It often deals with beliefs or theories that can be proven, disproven or often refined after observations or experiments. The problem is how to make tests without risks for patients, including variability and uncertainty on a number of parameters (patients, evolution of disease, treatments …). Nowadays, medical treatment uses more and more embedded devices such as sensors, actuators, and controllers. Treatment depends on the availability and well-functioning of complex electronic systems, comprising thousands of lines of codes. A mathematical representation of patient or device is presented by a number of variables which are defined to represent the inputs, the outputs and a set of equations describing the interaction of these variables. The objective of this research is to develop tools and methodologies for the development of embedded systems for medical fields. The goal is to be able to model and jointly simulate the medical device as well the human body, at least the part of the body involved in the medical device, to analyze the performance and quality of service (QoS) of the interaction of the device with the human body. To achieve this goal our study focused on several points described below. After starting by defining a prototype of a new global and flexible architecture of mathematical model of human body, which is able to contain required data, we begin by proposing a new global methodology for modeling and simulation human body and medical systems, in order to better understand the best way to model and simulate these systems and for detecting performance and the quality of services of all system components. We use two techniques that help to evaluate the calculated QoS value. The first one calculates an index of severity which indicates the severity of the case studied. The second one using a normalization function that represents the simulation as a point in order to construct a new error grid and use it to evaluate the accuracy of value measured by patients. Using Keil development tools designed for ARM processors, we have declared a new framework in the objective to create a new tester model for the glucose-insulin system, and to define the basic rules for the tester which has the ability to satisfy well-established medical decision criteria. The framework begins by simulating a mathematical model of the human body, and this model was developed to operate in the closed loop of the glucose insulin. Then, the model of artificial pancreas has been implemented to control the mathematical model of human body. Finally a new tester model was created in order to analyze the performance of all the components of the glucose-insulin system.. We have used the suitability of partially observable Markov decision processes to formalize the planning of clinical management
Style APA, Harvard, Vancouver, ISO itp.
24

Lafaye, Michaël. "Modélisation de plate-forme avionique pour exploration de performance en avance de phase". Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-01001760.

Pełny tekst źródła
Streszczenie:
De nos jours, les systèmes embarqués temps-réels critiques intègrent de plus en plus de composants, et voient leur complexité augmenter. Les systèmes avioniques ont suivi cette évolution, voyant augmenter leurs processus de développement. Dès lors, les développeurs de plates-formes avioniques se sont tournés vers les méthodes de modélisation en avance de phase (i.e. en tout début de cycle de développement), afin d'anticiper les performances de celles-ci et aider à leur dimensionnement. Particulièrement, l'exploration de l'utilisation des ressources matérielles de la plate-forme par la partie applicative (l'ensemble des applications) est le point central de cette exploration des performances. Si les méthodes de modélisation actuelles offrent la possibilité de modéliser une plate-forme depuis les exigences jusqu'au niveau architectural, elles ne sont pas encore adaptées à la modélisation comportementale. Elles ne permettent donc pas l'étude du comportement et la comparaison de différentes architectures d'une plate-forme en avance de phase. Mes travaux de thèse ont pour but d'offrir un processus de modélisation et simulation de plate-forme avionique répondant à cette problématique. L'objectif est de compléter les méthodes de modélisation actuelles pour apporter une analyse plus fine des performances d'une plate-forme en avance de phase, et les comparer avec les exigences. Pour cela, nous proposons une approche en quatre étapes : i) une étape de modélisation des applications et d'extraction des stimuli applicatifs ; ii) une étape de modélisation architecturale du système basée sur AADL (Architecture Analysis and Design Language) et son annexe ARINC653 ; iii) une étape de génération d'un modèle comportemental de la partie matérielle et intergicielle du système en SystemC-TLM ; iv) une étape de simulation et d'analyses, où les stimuli applicatifs sont exécutés par le modèle comportemental, et les performances extraites comparées aux exigences système. Enfin, nous avons validé notre méthode sur un cas d'étude avionique que nous présenterons également.
Style APA, Harvard, Vancouver, ISO itp.
25

Shi, Xiaomu. "Certification of an Instruction Set Simulator". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00937524.

Pełny tekst źródła
Streszczenie:
Cette thèse expose nos travaux de certification d'une partie d'un programme C/C++ nommé SimSoC (Simulation of System on Chip), qui simule le comportement d'archi- tectures basées sur des processeurs tels que ARM, PowerPC, MIPS ou SH4. Un simulateur de System on Chip peut être utilisé pour developper le logiciel d'un système embarqué spécifique, afin de raccourcir les phases des développement et de test, en particulier quand la vitesse de simulation est réaliste (environ 100 millions d'instructions par seconde par cœur dans le cas de SimSoC). Les réductions de temps et de coût de développement obtenues se traduisent par des cycles de conception interactifs et rapides, en évitant la lourdeur d'un système de développement matériel. SimSoC est un logiciel complexe, comprenant environ 60 000 de C++, intégrant des parties écrites en SystemC et des optimisations non triviales pour atteindre une grande vitesse de simulation. La partie de SimSoC dédiée au processeur ARM, l'un des plus répandus dans le domaine des SoC, transcrit les informations contenues dans un manuel épais de plus de 1000 pages. Les erreurs sont inévitables à ce niveau de complexité, et certaines sont passées au travers des tests intensifs effectués sur la version précédente de SimSoC pour l'ARMv5, qui réussissait tout de même à simuler l'amorçage complet de linux. Un problème critique se pose alors : le simulateur simule-t-il effectivement le matériel réel ? Pour apporter des éléments de réponse positifs à cette question, notre travail vise à prouver la correction d'une partie significative de SimSoC, de sorte à augmenter la confiance de l'utilisateur en ce similateur notamment pour des systèmes critiques. Nous avons concentré nos efforts sur un composant particulièrement sensible de SimSoC : le simulateur du jeu d'instructions de l'ARMv6, faisant partie de la version actuelle de SimSoC. Les approches basées sur une sémantique axiomatique (logique de Hoare par exemple) sont les plus répandues en preuve de programmes impératifs. Cependant, nous avons préféré essayer une approche moins classique mais plus directe, basée sur la sémantique opérationnelle de C : cela était rendu possible en théorie depuis la formalisation en Coq d'une telle sémantique au sein du projet CompCert et mettait à notre disposition toute la puissance de Coq pour gérer la complexitité de la spécification. À notre connaissance, au delà de la certification d'un simulateur, il s'agit de la première expérience de preuve de correction de programmes C à cette échelle basée sur la sémantique opérationnelle. Nous définissons une représentation du jeu d'instruction ARM et de ses modes d'adressage formalisée en Coq, grâce à un générateur automatique prenant en entrée le pseudo-code des instructions issu du manuel de référence ARM. Nous générons égale- ment l'arbre syntaxique abstrait CompCert du code C simulant les mêmes instructions au sein de Simlight, une version allégée de SimSoC. À partir de ces deux représentations Coq, nous pouvons énoncer et démontrer la correction de Simlight, en nous appuyant sur la sémantique opérationnelle définie dans CompCert. Cette méthodologie a été appliquée à au moins une instruction de chaque catégorie du jeu d'instruction de l'ARM. Au passage, nous avons amélioré la technologie disponible en Coq pour effectuer des inversions, une forme de raisonnement utilisée intensivement dans ce type de situation.
Style APA, Harvard, Vancouver, ISO itp.
26

Voiculescu, Sorin. "Fiabilité des systèmes embarqués". Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00468219.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans cette thèse abordent la problématique de l'estimation de la fiabilité des systèmes qui est devenue un enjeu majeur pour les entreprises et ce dès les premières phases de développement. En effet, plus tôt les caractéristiques d'un produit ou d'un système sont appréhendées dans son cycle de vie et moins les risques ( financiers ou liés à la sécurité des installations ), dus à la non réalisation des performances attendues sont élevés. Dans un contexte exigeant des systèmes de plus en plus fiables et sûrs, et de durées de garanties croissantes, il est impératif de vérifier le plus rapidement possible que les performances des systèmes soient conformes au cahier des charges. La démarche idéale pour identifier la fiabilité d'un produit ou d'un système avant sa fabrication en série, est de procéder à des séries d'essais sur des prototypes, quand ils existent. Cette démarche nécessite un investissement trop important en temps en nombre de prototypes, car ces derniers étant de plus en plus fiables, l'observation de défaillances est de moins en moins probable .
Style APA, Harvard, Vancouver, ISO itp.
27

Sturtzer, Eric. "Modélisation en vue de l'intégration d'un système audio de micro puissance comprenant un haut-parleur MEMS et son amplificateur". Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00940463.

Pełny tekst źródła
Streszczenie:
Ce manuscrit de thèse propose l'optimisation de l'ensemble de la chaîne de reproduction sonore dans un système embarqué. Le premier axe de recherche introduit les notions générales concernant les systèmes audio embarqués nécessaires à la bonne compréhension du contexte de la recherche. Le principe de conversion de l'ensemble de la chaine est présenté afin de comprendre les différentes étapes qui composent un système audio. Un état de l'art présente les différents types de haut-parleurs ainsi que l'électronique associé les plus couramment utilisées dans les systèmes embarqués. Le second axe de recherche propose une approche globale : une modélisation électrique du haut-parleur (tenant compte d'un nombre optimal de paramètres) permet à un électronicien de mieux appréhender les phénomènes non-linéaires du haut-parleur qui dégradent majoritairement la qualité audio. Il en résulte un modèle viable qui permet d'évaluer la non-linéarité intrinsèque du haut-parleur et d'en connaitre sa cause. Les résultats des simulations montrent que le taux de distorsion harmonique intrinsèque au haut-parleur est supérieur à celui généré par un amplificateur. Le troisième axe de recherche met en avant l'impact du contrôle du transducteur. L'objectif étant de savoir s'il existe une différence, du point de vue de la qualité audio, entre la commande asservie par une tension ou par un courant, d'un micro-haut-parleur électrodynamique. Pour ce type de transducteur et à ce niveau de la modélisation, le contrôle en tension est équivalent à contrôler directement le haut-parleur en courant. Néanmoins, une solution alternative (ne dégradant pas davantage la qualité audio du signal) pourrait être de contrôler le micro-haut-parleur en courant. Le quatrième axe de recherche propose d'adapter les spécifications des amplificateurs audio aux performances des micro-haut-parleurs. Une étude globale (énergétique) démontre qu'un des facteurs clés pour améliorer l'efficacité énergétique du côté de l'amplificateur audio est la minimalisation de la consommation statique en courant, en maximalisant le rendement à puissance nominale. Pour les autres spécifications, l'approche globale se base sur l'étude de l'impact de la spécification d'un amplificateur sur la partie acoustique. Cela nous a par exemple permis de réduire la contrainte en bruit de 300%. Le dernier axe de recherche s'articule autour d'un nouveau type de transducteur : un micro-haut-parleur en technologie MEMS. La caractérisation électroacoustique présente l'amélioration en terme de qualité audio (moins de 0,016% de taux de distorsion harmonique) et de plage de fréquence utile allant de 200 Hz à 20 kHz le tout pour un niveau sonore moyen de 80dB (10cm). La combinaison de tous les efforts présente un réel saut technologique. Enfin, la démarche globale d'optimisation de la partie électrique a été appliquée aux performances du MEMS dans la dernière section, ce qui a notamment permis de réduire la contrainte en bruit de 500%.
Style APA, Harvard, Vancouver, ISO itp.
28

Danilo, Robin. "Approches connexionnistes pour la vision par ordinateur embarquée". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS518/document.

Pełny tekst źródła
Streszczenie:
Pour concevoir des systèmes de vision embarquée, deux axes peuvent être considérés. Le premier se focalise sur la conception de nouveaux dispositifs numériques plus puissants capables de mettre en œuvre de manière efficace des algorithmes complexes. Le second se concentre sur l'élaboration de nouveaux algorithmes de vision, moins gourmands en ressources et qui peuvent efficacement être mis en œuvre sur des systèmes numériques embarqués. Nous privilégions dans ces travaux le second axe avec comme approche l'utilisation de modèles connexionnistes. Parmi les différents modèles existants, nous nous intéressons à deux modèles de réseaux de neurones artificiels, les réseaux à clusters et les réseaux convolutifs. Le premier modèle que nous utilisons, appelé réseau à clusters, n'avait jamais été utilisé pour réaliser des tâches de vision par ordinateur. Cependant, il paraissait être un bon candidat pour être utilisé sur des systèmes embarqués, notamment par des mises en œuvre sur des architectures matérielles dédiées. L'objectif a été tout d'abord de trouver les types de tâches pouvant être réalisées à l'aide de ce modèle de réseau. Ce modèle a été conçu pour réaliser des mémoires associatives. En vision par ordinateur, cela peut se rapprocher de problèmes tels que la recherche d'images par le contenu. Ce type d'application utilise massivement des algorithmes de recherche de plus proches voisins approchée et c'est donc sur ce type de tâches que nous nous sommes concentrés. Le second type de réseau étudié appelé réseau convolutif, est lui très populaire pour concevoir des systèmes de vision par ordinateur. Notre objectif a été ici de trouver des manières de simplifier ces réseaux tout en conservant des performances élevées. Nous proposons notamment une technique qui consiste à ré-entrainer des réseaux quantifiés
To design embedded computer vision systems, two axes can be considered. The first focuses on designing new, more powerful, digital devices that can efficiently implement complex algorithms. The second targets the development of new, lightweight computer vision algorithms that can be effectively implemented on digital embedded systems. In this work, we favor the second axis by using connectionist models. In this context, we focus on two models of artificial neural networks: cluster-based networks and convolutional networks. The first model we use, i.e. cluster-based network, was never been used to perform computer vision tasks before. However, it seemed to be a good candidate to design embedded systems, especially through dedicated hardware architectures implementation. The goal was first to find out the kinds of tasks that could be performed using this network model. This model has been designed to implement associative memories which can come close to problems such as content- based image retrieval in computer vision domain. This type of application massively uses approximated nearest neighbor search algorithms which makes it a good candidate to focus on. The second type of network studied in this work, called convolutional network, is very popular to design computer vision systems. Our goal here was to find different ways to simplify their complexity while maintaining high performance. In particular, we proposed a technique that involves re-training quantified networks
Style APA, Harvard, Vancouver, ISO itp.
29

Massot, Bertrand. "Conception, réalisation de capteurs non-invasifs ambulatoires et d'exocapteurs embarqués pour l'étude et le suivi de la réactivité émotionnelle". Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00863814.

Pełny tekst źródła
Streszczenie:
Le suivi de l'état de santé et de la réactivité émotionnelle chez l'individu est au cœur de la médecine de demain ; il participe notamment au développement de nouveaux services de soins en santé tels que la médecine à domicile, la médecine mobile ou encore la médecine personnalisée. Cependant il nécessite d'une part la définition d'indicateurs adaptés à la mesure en environnement complexe, et d'autre part la conception d'exocapteurs et d'instrumentations intégrés dans l'environnement de l'individu. Les travaux de cette thèse présentent la démarche nécessaire au passage de mesures physiologiques en laboratoire à celles des conditions de la vie de tous les jours, en s'articulant autour de deux axes d'étude : Le premier axe concerne la conception et le développement d'une instrumentation ambulatoire pour la mesure de paramètres physiologiques en conditions écologiques. Le système portable EmoSense conçu pour la mesure de la fréquence cardiaque, de la résistance cutanée et de la température cutanée permet l'identification de nouveaux indicateurs de la réactivité émotionnelle à partir de mesures réalisées en situations réelles. L'expérimentation présentée sur l'objectivation du stress chez les personnes aveugles pendant leur déplacement en milieu urbain a permis la construction d'un nouvel indicateur pour l'analyse de l'activité électrodermale. Par ailleurs, cette démarche met en avant l'importance de la mise en place de plateformes ayant pour objectif de fournir un support pour l'expérimentation en conditions écologiques, telles que les Living Lab. La seconde partie des travaux est consacrée à la mesure de l'activité électrodermale (résistance électrique cutanée) pendant la conduite de véhicule. Cette mesure est basée sur la conception et le développement d'un volant instrumenté. Ce travail illustre les difficultés technologiques liées à la mesure de signaux bioélectriques par exocapteurs pour leur intégration dans l'environnement de l'individu. Nous proposons ainsi une topologie innovante de placement des électrodes dans le but d'optimiser les facteurs de disponibilité et de robustesse du signal liés à la mesure de signaux bioélectriques par exocapteurs.
Style APA, Harvard, Vancouver, ISO itp.
30

Mihalache, Alin Gabriel. "Modélisation et évaluation de la fiabilité des systèmes mécatroniques : application sur système embarqué". Phd thesis, Université d'Angers, 2007. http://tel.archives-ouvertes.fr/tel-00467950.

Pełny tekst źródła
Streszczenie:
La mécatronique est définie par l'utilisation simultanée et en étroite symbiose de la mécanique, de l'électronique, de l'informatique,... pour concevoir et produire de produits toujours plus innovants. Cette approche doit s'accompagner aujourd'hui de la garantie de sûreté de fonctionnement (SdF) des systèmes conçus. Or, la fiabilité, élément déterminant de la SdF, est relativement peu maîtrisée dans le développement des systèmes mécatroniques. Nous avons développé une méthodologie globale permettant de modéliser et d'évaluer la fiabilité prévisionnelle, expérimentale et opérationnelle des systèmes mécatroniques. C'est un outil d'aide à la décision dans les différentes phases des cycles de développement et de vie du système mécatronique, en valorisant l'évaluation quantitative de la fiabilité. La fiabilité prévisionnelle est calculée à partir du modèle Réseaux de Petri Stochastiques Déterministes (RdPSD) du système mécatronique, qui prend en considération la modélisation fonctionnelle, la modélisation dysfonctionnelle (à l'aide d'une analyse AMDE, AD,...) et les recueils des données pour chaque composant. Les fiabilités expérimentale et opérationnelle sont déterminées à l'aide de la méthode d'estimation bayésienne BRM qui tient compte des données obtenues lors des essais et issues du REX. Un exemple d'application sur l'antiblocage des roues (ABS) illustre cette méthodologie globale d'estimation de la fiabilité.
Style APA, Harvard, Vancouver, ISO itp.
31

Guénette, Samuel. "Objets distribués pour systèmes embarqués". Mémoire, Université de Sherbrooke, 2002. http://hdl.handle.net/11143/5486.

Pełny tekst źródła
Streszczenie:
Comme les standards actuels pour la distribution des objets ne répondent pas, à ce jour, à tous les besoins d'un système embarqué, il devient pertinent de développer une solution propriétaire offrant le support nécessaire à la création de systèmes à objets distribués. Le but du projet, présenté par l'intermédiaire de ce mémoire, est donc de concevoir un protocole de communication pour la distribution des objets ainsi qu'une librairie de classes C++ facilitant le développement et la programmation de systèmes embarqués à objets distribués. Le protocole développé convoite simplicité et légèreté afin de satisfaire aux contraintes des systèmes embarqués pour qui les ressources matérielles sont limitées. Quant à la librairie de classes, elle exploite le concept d'héritage pour permettre une distribution quasi transparente des objets. En fait, pour arriver à tirer avantage des services d'un objet distant, il suffit de créer un Proxy et un Adaptor , spécifique à cet objet, et de les intégrer au système. L'objet client peut alors faire appel aux différentes opérations de l'objet serveur, et ce, même s'ils ne sont pas physiquement localisés sur le même noeud."--Résumé abrégé par UMI
Style APA, Harvard, Vancouver, ISO itp.
32

Robert, Jérémy. "De l'usage d'architectures Ethernet commutées embarquées dans les lanceurs spatiaux". Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0128.

Pełny tekst źródła
Streszczenie:
Les lanceurs spatiaux actuels, et en particulier Ariane 5, utilisent le réseau déterministe MIL-STD-1553B. Compte tenu des nouveaux objectifs de réduction des coûts et de la masse du système global ainsi que du support de trafic de télémesure multimédia, cette technologie n'est plus forcément optimale. Parmi les différents candidats de remplacement, cette thèse met en évidence les capacités du standard Ethernet à répondre à ces nouveaux objectifs tout en s'appuyant sur une utilisation de composants matériels et d'outils de développement existants à moindre coût (COTS). La première contribution porte sur l'évaluation de performances temporelles des architectures commutées. Les travaux mettent ainsi en évidence les gains et limites liés au choix d'une part du mode de communication (de maître/esclaves à producteurs/consommateur) et d'autre part à une future distribution de l'avionique. Pour cela, cette étude s'appuie sur une évaluation déterministe des délais de bout en bout par calcul réseau, simulations et expérimentations. Ces résultats ont été validés pour deux architectures commutées pour un scénario représentatif des vols actuels. La seconde contribution concerne l'amélioration de la disponibilité du système de communication. Il est proposé une stratégie de reconfiguration "temps réel" des chemins par supervision active du réseau. Dans le cadre d'exigences critiques, il est également proposé l'utilisation d'arbres couvrants multiples permettant d'anticiper la défaillance d'éléments d'interconnexion. Enfin, le choix d'architectures commutées et segmentées ne permet plus d'observer en tout point le réseau comme sur un bus. Pour cela, cette thèse met en avant les conditions et performances dans lesquelles un protocole de synchronisation d'horloges pourra contribuer à générer à partir de plusieurs points de captures une trace unique des échanges sur le réseau. Ce travail permettra d'identifier les tests pour une future validation du standard Ethernet pour les lanceurs spatiaux
Current space launchers, and particularly Ariane 5, use the deterministic network MIL-STD-1553B. According to the new objectives of cost and system mass reduction and of multimedia traffic support, this technology is not optimal anymore. Among the potential candidates, this thesis highlights the fact that such objectives can be achieved through the use of Ethernet standard based on components-on-the-shelf. The first contribution focuses on time performance evaluation of switched architectures. The gain and limits related to the communication mode (from master/slaves to producers/consummers) and future avionic distribution are studied. This study relies on a deterministic evaluation of the end-to-end delay by using network calculus, simulations and experiments. These results are validated with two switched architectures by using a scenario considered as representative of current flights. The second contribution is the network availability improvement. A real-time path reconfiguration strategy is proposed through active network supervision. Based on critical requirements, it is also suggested to use multiple spanning-trees for anticipating network element failures. The last contribution deals with the issue that in switched and segmented architectures it is not possible to collect all the traffic as in a bus. In order to do so, this thesis introduces the configurations under which a clock synchronization protocol could contribute to generate a single network trace from many collecting points. This work will enable to identify the tests for a future Ethernet standard validation in the framework of space launchers
Style APA, Harvard, Vancouver, ISO itp.
33

Khenfri, Fouad. "Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR". Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4002/document.

Pełny tekst źródła
Streszczenie:
AUTOSAR (AUTomotive Open System Architecture) est un standard industriel mondial créé en 2003 dans le but de standardiser le développement des architectures logicielles automobiles. Il fournit un ensemble de concepts et définit une méthodologie commune pour le développement des logiciels embarqués automobiles. Les principales caractéristiques de ce standard sont la modularité et la « configurabilité» de logiciels qui permettent la réutilisation fonctionnelle des modules logiciels fournis par des fournisseurs différents. Cependant,le développement d’une application embarquée AUTOSAR nécessite la configuration d’un grand nombre de paramètres liés principalement au grand nombre de composants logiciels (software component« SWC ») de l’application. Cette configuration commence par l’étape d’allocation des SWCs à la plateforme matérielle (calculateursconnectés par des réseaux), jusqu’à l’étape de configuration de chaque calculateur et du réseau de communication. Différentes alternatives sont possibles pendant ces étapes de configuration etc chaque décision de conception peut impacter les performances temporelles du système, d’où la nécessité d’automatiser ces étapes de configuration et de développer un outil d’évaluation d’architectures.Dans ce travail de thèse, nous introduisons une approche holistique d’optimisation afin de synthétiser l’architecture E/E d’un système embarqué AUTOSAR. Cette approche se base sur des méthodes métaheuristique et heuristique. La méthode métaheuristique (i.e. algorithme génétique) a le rôle de trouver les allocations les plus satisfaisantes des SWCs aux calculateurs. A chaque allocation proposée, deux méthodes heuristiques sont développées afin de résoudre le problème de la configuration des calculateurs (le nombre de tâches et ses priorités, allocation des runnables aux tâches, etc.) et des réseaux de communication (le nombre de messages et ses priorités, allocation des « data-elements » aux messages,etc.). Afin d’évaluer les performances de chaque allocation, nous proposons une nouvelle méthode d’analyse pour calculer le temps de réponse des tâches, des runnables, et de bout-en-bout de tâches/runnables. L’approche d’exploration architecturale proposée par cette thèse considère le modèle des applications périodiques et elle est évaluée à l’aide d’applications génériques et industrielles
AUTOSAR (AUTomotive Open System ARchitecture) has been created by automotive manufacturers, suppliers and tools developers in order to establish an open industry standard for automotive E/E(Electrical/Electronic) architectures. AUTOSAR provides a set of concepts and defines a common methodology to develop automotive software platforms. The key features of this standard are modularity and configurability of automotive software; this allows functional reuse of software modules provided by different suppliers and guarantees interoperability of these modules through standardized interfaces. However, the development of an embedded application according to AUTOSAR necessitates configuring a lot of parameters related to the large number of Software Components (SWCs), their allocations to the hardware platform and then, the configurationof each Electronic Control Unit (ECU). Different alternatives are possible during the design of such systems. Each implementation decision may impact system performance and needs therefore to be evaluated and compared against performance constraints and optimization goals. In this thesis, we introduce a holistic optimization approach to synthesizearchitecture E/E of an embedded AUTOSAR system. This approach is based on heuristic and metaheuristic methods. The metaheuristics (e.g. genetic algorithm) has the role to find the most satisfactory allocations of SWCs to ECUs. Each allocation step, two heuristics are developed to solve the problem of the ECU configuration (the number of tasks and priorities, allocation of runnables to tasks, etc.) and networks configuration (the number of messagesand priorities, allocation of data-elements to messages, etc.). In order to evaluate the performance of each allocation, we propose a new analysis method to calculate the response time of tasks, runnables, and end-to-end paths. The architectural exploration approach proposed by this thesis considers the model for periodic applications and is evaluated using generic and industrial applications
Style APA, Harvard, Vancouver, ISO itp.
34

Robert, Jérémy. "De l'usage d'architectures Ethernet commutées embarquées dans les lanceurs spatiaux". Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0128.

Pełny tekst źródła
Streszczenie:
Les lanceurs spatiaux actuels, et en particulier Ariane 5, utilisent le réseau déterministe MIL-STD-1553B. Compte tenu des nouveaux objectifs de réduction des coûts et de la masse du système global ainsi que du support de trafic de télémesure multimédia, cette technologie n'est plus forcément optimale. Parmi les différents candidats de remplacement, cette thèse met en évidence les capacités du standard Ethernet à répondre à ces nouveaux objectifs tout en s'appuyant sur une utilisation de composants matériels et d'outils de développement existants à moindre coût (COTS). La première contribution porte sur l'évaluation de performances temporelles des architectures commutées. Les travaux mettent ainsi en évidence les gains et limites liés au choix d'une part du mode de communication (de maître/esclaves à producteurs/consommateur) et d'autre part à une future distribution de l'avionique. Pour cela, cette étude s'appuie sur une évaluation déterministe des délais de bout en bout par calcul réseau, simulations et expérimentations. Ces résultats ont été validés pour deux architectures commutées pour un scénario représentatif des vols actuels. La seconde contribution concerne l'amélioration de la disponibilité du système de communication. Il est proposé une stratégie de reconfiguration "temps réel" des chemins par supervision active du réseau. Dans le cadre d'exigences critiques, il est également proposé l'utilisation d'arbres couvrants multiples permettant d'anticiper la défaillance d'éléments d'interconnexion. Enfin, le choix d'architectures commutées et segmentées ne permet plus d'observer en tout point le réseau comme sur un bus. Pour cela, cette thèse met en avant les conditions et performances dans lesquelles un protocole de synchronisation d'horloges pourra contribuer à générer à partir de plusieurs points de captures une trace unique des échanges sur le réseau. Ce travail permettra d'identifier les tests pour une future validation du standard Ethernet pour les lanceurs spatiaux
Current space launchers, and particularly Ariane 5, use the deterministic network MIL-STD-1553B. According to the new objectives of cost and system mass reduction and of multimedia traffic support, this technology is not optimal anymore. Among the potential candidates, this thesis highlights the fact that such objectives can be achieved through the use of Ethernet standard based on components-on-the-shelf. The first contribution focuses on time performance evaluation of switched architectures. The gain and limits related to the communication mode (from master/slaves to producers/consummers) and future avionic distribution are studied. This study relies on a deterministic evaluation of the end-to-end delay by using network calculus, simulations and experiments. These results are validated with two switched architectures by using a scenario considered as representative of current flights. The second contribution is the network availability improvement. A real-time path reconfiguration strategy is proposed through active network supervision. Based on critical requirements, it is also suggested to use multiple spanning-trees for anticipating network element failures. The last contribution deals with the issue that in switched and segmented architectures it is not possible to collect all the traffic as in a bus. In order to do so, this thesis introduces the configurations under which a clock synchronization protocol could contribute to generate a single network trace from many collecting points. This work will enable to identify the tests for a future Ethernet standard validation in the framework of space launchers
Style APA, Harvard, Vancouver, ISO itp.
35

Souissi, Youssef. "Méthodes optimisant l'analyse des cryptoprocesseurs sur les canaux cachés". Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00681665.

Pełny tekst źródła
Streszczenie:
Ces dernières annèes, la sécurité des systèmes embarqués a fait l'objet de recherches intensives. Comme l'énergie, le coût et la performance; la sécurité est un aspect important qui doit être considé tout au long du processus de conception d'un système embarqué. Des menaces récentes appelées ``attaques par canaux cachés''(Side-Channel Analysis (SCA)) ont attiré beaucoup d'attention dans le milieu de la sécurité embarquée. Ces attaques exploitent des propriétés physiques, tels que la consommation d'énergie ou le champ magnétique rayonné afin de retrouver le secret. De plus, elles sont passives dans le sens où l'analyse se contente d'une observation extérieure du système sans l'endommager. Dans ce contexte, il est évident que la sécurisation des systèmes embarqués contre les attaques SCA constitue un aspect vital dans le flot de conception. Par conséquent, la nécessité d'assurer et d'évaluer la robustesse des systèmes embarqués contre ces attaques devient clair. Cette thèse propose principalement des techniques et méthodes génériques dans l'analyse par canaux cachés. Ces techniques qui touchent à différents aspects de l'analyse SCA (acquisition, pré-traitement, attaque et évaluation) peuvent être utilisées dans un cadre d'évaluation plus officiel tel que les Critères Communs (CC) ou le FIPS-140 afin d'améliorer la visibilité de l'évaluateur lors de l'évaluation. Par ailleurs, le propriétaire d'un produit pourrait aussi se baser sur ces techniques dans le but d'évaluer la sécurité de son produit face aux attaques par canaux cachés avant de solliciter un certificat
The security of modern embedded systems has been the subject of intensive research in engineering areas. Recent threats called Side-Channel Analysis (SCA) have attracted much attention in embedded security areas. SCAs are passive attacks, in that the device under attack is not aware of its leaks being recorded. Therefore, the need of securing and evaluating the robustness of embedded systems against SCAs becomes obvious. Basically, four aspects of security evaluation analysis should be taken into consideration: the acquisition of Side-channel traces, the preprocessing of traces acquired, the detection and extraction of cryptographic patterns from the preprocessed traces, and finally the recovery of sensitive information, referred to as the secret key. This thesis investigates new techniques in the analysis of systems for Side-channel attacks. It considers how evaluation targets are characterized, how their behaviour may be simulated -- in order to hone targets for empirical analysis and then how data can be collected and analysed. The overall goal is the establishment of a methodological basis for this work. The first part of this thesis focuses on physical cryptanalysis. Several solutions and generic Side-channel attacks are addressed. The second part of this thesis is devoted to the pre-processing of the Side-channel leaked information. We propose new techniques and efficient pre-processing algorithms to get rid off the issues related principally to the noise and de-synchronisation problems. In the last part of this thesis, we establish a methodological framework, which aims at best organizing the task of the evaluator. We also highlight common pitfalls made by evaluators
Style APA, Harvard, Vancouver, ISO itp.
36

Souissi, Youssef. "Méthodes optimisant l'analyse des cryptoprocesseurs sur les canaux cachés". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00681665.

Pełny tekst źródła
Streszczenie:
Ces dernières années, la sécurité des systèmes embarqués a fait l'objet de recherches intensives. Comme l'énergie, le coût et la performance; la sécurité est un aspect important qui doit être considérée tout au long du processus de conception d'un système embarqué. Des menaces récentes appelées "attaques par canaux cachés'' (Side-Channel Analysis (SCA)) ont attiré beaucoup d'attention dans le milieu de la sécurité embarquée. Ces attaques exploitent des propriétés physiques, telles que la consommation d'énergie ou le champ magnétique rayonné, afin de retrouver le secret. De plus, elles sont passives dans le sens où l'analyse se contente d'une observation extérieure du système sans l'endommager. Dans ce contexte, il est évident que la sécurisation des systèmes embarqués contre les attaques SCA constitue un aspect vital dans le flot de conception. Par conséquent, la nécessité d'assurer et d'évaluer la robustesse des systèmes embarqués contre ces attaques devient clair. Cette thèse propose principalement des techniques et méthodes génériques dans l'analyse par canaux cachés. Ces techniques qui touchent à différents aspects de l'analyse SCA (acquisition, pré-traitement, attaque et évaluation) peuvent être utilisées dans un cadre d'évaluation plus officiel tel que les Critères Communs (CC) ou le FIPS-140 afin d'améliorer la visibilité de l'évaluateur. Par ailleurs, le propriétaire d'un produit pourrait aussi se baser sur ces techniques dans le but d'évaluer la sécurité de son produit face aux attaques par canaux cachés avant de solliciter un certificat.
Style APA, Harvard, Vancouver, ISO itp.
37

Sadou, Nabil. "Aide à la conception des systèmes embarqués sûrs de fonctionnement". Phd thesis, INSA de Toulouse, 2007. http://tel.archives-ouvertes.fr/tel-00192045.

Pełny tekst źródła
Streszczenie:
L'avancée technologique que les systèmes embarqués ont connue lors de ces dernières années les rend de plus en plus complexes. Ils sont non seulement responsables de la commande des différents composants mais aussi de leur surveillance. A l'occurrence d'événement pouvant mettre en danger la vie des utilisateurs, une certaine configuration du système est exécutée afin de maintenir le système dans un état dégradé mais sûr. Il est possible que la configuration échoue conduisant le système dans un état appelé " état redouté " avec des conséquences dramatiques pour le système et l'utilisateur. La description des scénarios qui mènent le système vers l'état redouté à partir d'un état de fonctionnement 'normal' permet de comprendre les raisons de la dérive afin de prévoir les configurations nécessaires qui permettent de les éviter Dans notre approche d'analyse de sûreté de fonctionnement des systèmes dynamiques, les scénarios sont générés à partir d'un modèle réseau de Petri. En s'appuyant sur la logique linéaire comme nouvelle représentation (basée sur les causalités) du modèle réseau de Petri, une analyse qualitative permet de déterminer un ordre partiel de franchissement des transitions et ainsi extraire les scénarios redoutés. La démarche est focalisée sur les parties du modèle intéressantes pour l'analyse de fiabilité évitant ainsi l'exploration de toutes les parties du système et le problème de l'explosion combinatoire. L'objectif final consiste en la détermination de scénarios minimaux. En effet, un scénario peut bien mener vers l'état redouté sans qu'il soit minimal. Il contient des événements qui ne sont pas strictement nécessaires à l'obtention finale de l'état critique redouté. De même que la notion de coupe minimale a été définie dans le cadre des arbres de défaillance, nous proposons une définition de ce qu'est un scénario minimal dans le cas des réseaux de Petri. Pour prendre en compte La nature hybride des systèmes, nous avons développé un simulateur hybride basé sur le couplage de l'algorithme de génération de scénarios redoutés avec un solveur d'équations différentielles. L'algorithme se charge de la partie discrète modélisée par le réseau de Petri et le solveur d'équations de la partie continue modélisée par un ensemble d'équations différentielles. Afin d'avoir une approche système pour l'analyse de la sûreté de fonctionnement, nous proposons une approche qui permet de prendre en compte les exigences de sûreté dans le processus d'ingénierie des exigences qui permet d'établir un modèle de traçabilité afin de s'assurer de la prise en compte de ces exigences tout au long du cycle de vie du système. L'approche est basée sur une norme de l'ingénierie système, en l'occurrence l'EIA-632.
Style APA, Harvard, Vancouver, ISO itp.
38

Schweppe, Hendrik. "Sécurité et protection de la vie privée dans les systèmes embarqués automobiles". Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0062/document.

Pełny tekst źródła
Streszczenie:
L'équipement électronique de bord est maintenant devenue partie intégrante de l'architecture réseau des véhicules. Elle s’appuie sur l'interconnexion de microcontroleurs appelés ECUs par des bus divers. On commence maintenant à connecter ces ECUs au monde extérieur, comme le montrent les systèmes de navigation, de divertissement, ou de communication mobile embarqués, et les fonctionnalités Car2X. Des analyses récentes ont montré de graves vulnérabilités des ECUs et protocoles employés qui permettent à un attaquant de prendre le contrôle du véhicule. Comme les systèmes critiques du véhicule ne peuvent plus être complètement isolés, nous proposons une nouvelle approche pour sécuriser l'informatique embarquée combinant des mécanismes à différents niveaux de la pile protocolaire comme des environnements d'exécution. Nous décrivons nos protocoles sécurisés qui s'appuient sur une cryptographie efficace et intégrée au paradigme de communication dominant dans l'automobile et sur des modules de sécurité matériels fournissant un stockage sécurisé et un noyau de confiance. Nous décrivons aussi comment surveiller les flux d'information distribués dans le véhicule pour assurer une exécution conforme à la politique de sécurité des communications. L'instrumentation binaire du code, nécessaire pour l’industrialisation, est utilisée pour réaliser cette surveillance durant l’exécution (par data tainting) et entre ECUs (dans l’intergiciel). Nous évaluons la faisabilité de nos mécanismes pour sécuriser la communication sur le bus CAN aujourd'hui omniprésent dans les véhicules. Une preuve de concept montre aussi la faisabilité d'intégrer des mécanismes de sécurité dans des véhicules réels
Electronic equipment has become an integral part of a vehicle's network architecture, which consists of multiple buses and microcontrollers called Electronic Control Units (ECUs). These ECUs recently also connect to the outside world. Navigation and entertainment system, consumer devices, and Car2X functions are examples for this. Recent security analyses have shown severe vulnerabilities of exposed ECUs and protocols, which may make it possible for attackers to gain control over a vehicle. Given that car safety-critical systems can no longer be fully isolated from such third party devices and infotainment services, we propose a new approach to securing vehicular on-board systems that combines mechanisms at different layers of the communication stack and of the execution platforms. We describe our secure communication protocols, which are designed to provide strong cryptographic assurances together with an efficient implementation fitting the prevalent vehicular communication paradigms. They rely on hardware security modules providing secure storage and acting as root of trust. A distributed data flow tracking based approach is employed for checking code execution against a security policy describing authorized communication patterns. Binary instrumentation is used to track data flows throughout execution (taint engine) and also between control units (middleware), thus making it applicable to industrial applications. We evaluate the feasibility of our mechanisms to secure communication on the CAN bus, which is ubiquitously implemented in cars today. A proof of concept demonstrator also shows the feasibility of integrating security features into real vehicles
Style APA, Harvard, Vancouver, ISO itp.
39

Maillet, Luc. "Spécification et validation d'une architecture de système distribué pour le contrôle d'exécution d'applications temps réel complexes". Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0007.

Pełny tekst źródła
Streszczenie:
Cette thèse se place dans le cadre des systèmes embarqués distribués et décrit un modèle de tâche temps réel complexe et une structure de moniteur permettant d'assurer le contrôle d'exécution distribué d'applications bâties sur ce modèle. Après un panorama des recherches effectuées dans le domaine, permettant de définir les mécanismes existants et les problèmes restant à résoudre, cette thèse décrit un modèle de tâche permettant de modéliser des applications complexes et présente les fonctionnalités requises pour le contrôle d'exécution d'applications le prenant pour base. Ces prérequis fonctionnels permettent de déduire une structure logique de moniteur de contrôle. Un moniteur local est décrit comme un ensemble de contrôleurs coopérant pour assurer le contrôle d'exécution. Cette coopération est locale ou distante suivant les besoins. Les contrôleurs sont définis par la fonction qu'ils accomplissent et la manière dont ils coopèrent, sans préjuger de l'algorithme exact accomplissant cette fonction. Pour valider le modèle de tâche et la structure logique, on réalise un modèle exécutable décrit sous la forme d'un graphe de files d'attente et permettant d'effectuer des simulations. Ces simulations donnent des résultats guidant la conception d'algorithmes de contrôle spécifiques adaptés. Ces résultats permettent également de valider le modèle de tâche temps réel complexe, la structure logique de moniteur et son adaptabilité à l'évaluation d'algorithmes de contrôle.
Style APA, Harvard, Vancouver, ISO itp.
40

Kocik, Rémy. "Optimisation des systèmes distribués temps réel embarqués : application au prototypage rapide d'un véhicule électrique autonome". Rouen, 2000. http://www.theses.fr/2000ROUES021.

Pełny tekst źródła
Streszczenie:
La méthodologie AAA (Adequation Algorithme Architecture) a été développée pour résoudre les problèmes de conception/réalisation optimisée d'applications complexes temps réel embarquées. Son but est d'implanter les algorithmes de contrôle-commande sur des architectures matérielles, qui, pour satisfaire de fortes contraintes de coût sont généralement distribuées et hétérogènes. Dans cette thèse, nous cherchons à valider et à améliorer cette méthodologie. Nous présentons dans la première partie les étapes qui, lors de la conception, permettent de transformer le modèle mathématique défini par l'automaticien en une spécification informatique permettant d'aboutir à la réalisation de l'application. Nous étudions les liens qui existent entre ces deux modèles afin de supprimer la rupture entre les phases de conception et de réalisation en vue de réduire le cycle de développement. Dans la deuxième partie nous cherchons à améliorer l'expressivité de la spécification, d'une part en fournissant la possibilité de décrire séparément les aspects contrôle (changement de modes) et les aspects commande (lois de commande, traitement du signal et des images) de l'application, et d'autre part en ajoutant la possibilité de décrire finement des contraintes temporelles multiples. La troisième partie traite de l'implantation optimisée d'une spécification comportant des contraintes temporelles multiples, alors que la méthodologie AAA ne prenait en compte qu'une seule contrainte auparavant. Dans la dernière partie, nous validons l'intérêt de la méthodologie AAA pour le prototypage rapide optimisé d'applications complexes à travers la réalisation d'un prototype de véhicule électrique autonome.
Style APA, Harvard, Vancouver, ISO itp.
41

Jovanovic, Slavisa. "Architecture reconfigurable de système embarqué auto-organisé". Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10099/document.

Pełny tekst źródła
Streszczenie:
A?n de répondre à une complexité croissante des systèmes de calcul, due notamment aux progrès rapides et permanents des technologies de l’information, de nouveaux paradigmes et solutions architecturales basées sur des structures auto-adaptatives, auto-organisées sont à élaborer. Ces dernières doivent permettre d’une part la mise à disposition d’une puissance de calcul suf?sante répondant à des contraintes de temps sévères (traitement temps réel). D’autre part, de disposer d’une grande ?exibilité et adaptabilité dans le but de répondre aux évolutions des traitements ou des défaillances non prévues caractérisant un contexte d’environnement évolutif de fonctionnement du système. C’est dans ce cadre que s’insèrent les travaux de recherche présentés dans cette thèse qui consistent à développer une architecture auto-organisée de type Recon?gurable MPSoC (Multi processor System on Chip) à base de technologie FPGA
The growing complexity of computing systems, mostly due to the rapid progress in Information Technology (IT) in the last decade, imposes on system designers to orient their traditional design concepts towards the new ones based on self-organizing and self-adaptive architectural solutions. On the one hand, these new architectural solutions should provide a system with a suf?cient computing power, and on the other hand, a great ?exibility and adaptivity in order to cope with all non-deterministic changes and events that may occur in the environnement in which it evolves. Within this framework, a recon?gurable MPSoC self-organizing architecture on the FPGA recon?gurable technology is studied and developped during this PhD
Style APA, Harvard, Vancouver, ISO itp.
42

Escolá, Ricardo. "Traitements de signaux neuronaux sur système embarqué". Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0020/these.pdf.

Pełny tekst źródła
Streszczenie:
The field of neuroscience is interested in understanding how neural networks encode and decode information to interact with the outside world. For this, one of the current challenges is to simultaneously record the activity of many cells in large networks of neurons, and stimulate a dynamic way these networks (eg to monitor the activities). Today, it is possible to keep alive an explant of neural tissue in a medium survival of micro electrodes (Micro Electrode Array) for recording neuronal electrical activity on a hundred ways. The shift to large networks of neurons with a spatial resolution sufficient need to develop new generations of systems with a number of measurement channels much more important. To this end, integrated electronics technologies are being developed to lead to reasonable space systems and, ultimately, implants to restore impaired functions in humans. As part of this thesis is concerned with compression of neural signals on a system integrated (ASIC) prior to data extraction. Indeed, a major effort has been done for decades in the understanding and development of technologies embedded completely autonomous. Currently there is three bolts main power dissipated by the system, the flow of data transmitted and the autonomy of the system (this is essential for applications located). The neuronal action potentials (or spikes) have been widely accepted as the basic unit of neural information. They are also responsible for most of the flow of data recorded at the acquisition stage. We therefore chose an approach to extract functional information from neural activity so as to achieve a maximum compression ratio, while preserving the functional information of the recorded signals. Treatment of spikes requires two steps: detection and classification of spikes in identifying how neurons represent action potentials detected. Traditional methods of detection and sorting are generally not well suited to an implementation independent board. In this thesis, we propose methods for detecting and sorting based on unsupervised architectures compatible digital architecture with embedded low power. The detection step is based on the theory of wavelets, which improves the detectability of spikes while keeping a low computational complexity. In parallel we propose a system for extracting spikes to `` broadcast''that minimizes the computing power using optimum resources of the onboard memory. For sorting of spikes, we propose an automatic classification. The power rating shows it is compatible with low power embedded system. Our system reacts in real time to changes in the nervous tissue and automatically estimates the parameters necessary to achieve real-time classification. Moreover, it offers a simulation tool that allows neural signals to test the performance of algorithms and understand the dynamics of neural networks studied
Le domaine des neurosciences s'intéresse à comprendre la façon dont les réseaux neuronaux codent et décodent l'information pour interagir avec le monde extérieur. Pour cela, un des enjeux actuels est de pouvoir simultanément : enregistrer les activités d'un grand nombre de cellules au sein de grands réseaux de neurones, et stimuler de manière dynamique ces réseaux (par exemple pour en contrôler les activités). Aujourd'hui, il est possible de maintenir en vie un explant de tissu nerveux dans un milieu de survie sur des systèmes micro électrodes (Micro Electrode Array) permettant d'enregistrer les activités électriques neuronales sur une centaine de voies. Le passage à de grands réseaux de neurones avec une résolution spatiale suffisante nécessite de mettre au point de nouvelles générations de systèmes offrant un nombre de voies de mesures beaucoup plus important. A cet effet, des technologies l'électronique intégrée sont en cours de développement pour aboutir à des systèmes d'encombrement raisonnable et, à terme, à des implants pour rétablir des fonctions altérées chez l'homme. Dans le cadre de cette thèse on s'intéresse à la compression de signaux neuronaux sur un système intégrée (ASIC) préalable à l'extraction des données. En effet, un effort important a été fait depuis des dizaines d'années dans la compréhension et le développement des techniques embarquées complètement autonomes. Actuellement on constate trois verrous principaux: la puissance dissipée par le système, le flux de données transmis et l'autonomie du système (ceci s'avère indispensable pour des applications implantées). Les potentiels d'action neuronaux (ou spikes) ont été largement acceptés comme étant l'unité de base de l'information neurologique. Ils sont aussi responsables pour la plupart du flux de données enregistré à l'étape d'acquisition. On a donc choisi une approche visant à extraire l'information fonctionnelle de l'activité neuronale de manière à réussir un taux de compression maximale, tout en conservant l'information fonctionnelle des signaux enregistrés. Le traitement des spikes requiert deux étapes: la détection et la classification des spikes en identifiant à quel neurone correspondent les potentiels d'action détectés. Les méthodes traditionnelles de détection et de tri ne sont généralement pas bien adaptées à une implémentation embarquée autonome. Dans cette thèse, on propose des méthodes de détection et de tri non supervisées basées sur des architectures numériques compatibles avec une architecture embarquée de basse puissance. L'étape de détection est basée sur la théorie des ondelettes, ce qui permet d'améliorer la détectabilité des spikes tout en gardant une complexité calculatoire faible. En parallèle on propose un système d'extraction de spikes ``à la volée'' qui minimise la puissance de calcul en utilisant de manière optimale les ressources de la mémoire embarquée. Pour le tri des spikes, on propose un système automatique de classification. L'estimation de puissance nous montre qu'il est compatible avec un système embarqué basse consommation. Notre système réagit en temps réel aux changements dans le tissu nerveux et estime automatiquement les paramètres nécessaires pour réaliser la classification en temps réel. De plus, on propose un outil de simulation de signaux neuronaux qui permet de tester la performance des algorithmes de traitement et de mieux comprendre la dynamique des réseaux neuronaux étudiés
Style APA, Harvard, Vancouver, ISO itp.
43

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé". Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Pełny tekst źródła
Streszczenie:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur
This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
Style APA, Harvard, Vancouver, ISO itp.
44

Ibrahim, Mohamed Ali. "Agents mobiles natifs pour systèmes embarqués". Thèse, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/5336.

Pełny tekst źródła
Streszczenie:
L’objectif de ce projet de recherche est de développer une technologie d’agents mobiles pour systèmes embarqués. Dans un premier temps, une plateforme d’agents mobiles pour systèmes embarqués homogènes est réalisée et, ensuite dans un deuxième temps, une application d’informatique diffuse qui exploite la mobilité du contexte d’exécution est mise en œuvre pour valider cette plateforme. La mobilité d’un agent est définie comme suit: son exécution est interrompue sur le nœud courant, appelé nœud source, ensuite les données représentant l’état de l’agent sont transférées du nœud source vers un nœud destination et enfin, arrivé au nœud destination, son exécution se poursuit là où elle avait été interrompue sur le nœud de départ. Cette opération, appelée migration du contexte d’exécution, est intégrée aux fonctionnalités d’un noyau temps réel, permettant ainsi la mobilité d’agents logiciels au sein d’une grappe de systèmes embarqués homogènes. Les applications visées par le projet relèvent du domaine de l’informatique diffuse et plus particulièrement de son application à l’espace intelligent.
Style APA, Harvard, Vancouver, ISO itp.
45

Marchetti, Olivier. "Dimensionnement des mémoires pour systèmes embarqués". Paris 6, 2006. http://www.theses.fr/2006PA066383.

Pełny tekst źródła
Streszczenie:
Le problème du dimensionnement des mémoires pour systèmes embarqués consiste à définir la taille à allouer pour chaque mémoire tel que la surface globale occupée par ces mémoires soit minimale et que le système embarqué puissent fonctionner sans bloquage lié à un sous dimensionnement de ces mémoires. Nous modélisons ce problème d'optimisation en utilisant le modèle des graphes d'événements généralisés (GEG en abrégé). Nous montrons que ce problème d'optimisation est étroitement lié au problème de vivacité d'un GEG. Nous proposons une transformation des GEG, appelée normalisation, permettant de définir une condition suffisante de vivacité ainsi qu'un algorithme polynomial pour tester cette condition sur des GEG quelconques. Nous proposons des résultats nouveaux de complexité pour des problèmes d'optimisation bi-critères (ie. Surface globale / débit du système). Nous développons un algorithme polynomial 2-approché pour la résolution du problème bi-critère du débit maximum intrinsèque.
Style APA, Harvard, Vancouver, ISO itp.
46

Tout, Mohamad. "Conception optimisée de systèmes énergétiques embarqués". Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0212.

Pełny tekst źródła
Streszczenie:
La prise de décision est une étape difficile et importante dans le processus de conception. Elle vise à guider les concepteurs dans le choix des solutions de conception entre de nombreuses alternatives. Un processus spécifique, dérivé de la combinaison entre l'ingénierie des systèmes basés sur les modèles (MBSE) et l'ontologie de la morphogenèse, de l'observation, de l'interprétation, de l'agrégation (MOIA), et appliqué aux systèmes embarqués sur les véhicules, est présenté dans ce manuscrit afin de trouver la solution optimale qui répond à plusieurs objectifs demandés. Ce processus est basé sur un algorithme d'optimisation, couplant des modèles de comportements physiques et des préférences des concepteurs. Il intègre un algorithme d'apprentissage machine afin de générer des modèles de simulation réduits fonctionnant en temps réel. En utilisant ces modèles de simulation, le temps de calcul diminue. Cela améliore le processus décisionnel et introduit un processus d'optimisation dynamique qui repose sur une vision dynamique des spécifications, des scénarios, des besoins et des préférences des clients. Cette méthode est appliquée pour optimiser le groupe motopropulseur d'un véhicule électrique, qui comprend la batterie, l'onduleur, le moteur électrique et la boîte de vitesses, répondant à trois objectifs majeurs : autonomie, performance et coût.En outre, nous développons une interface homme-machine d'une page pour le cas de conception du groupe motopropulseur d'un véhicule électrique. Cette interface représente le cadre d'optimisation de la conception à l'aide de MOIA qui fournit un moyen pratique de structurer le problème de conception. Elle est considérée comme une preuve de concept d'un outil interactif où les différents acteurs participant au processus de conception peuvent vérifier immédiatement l'évolution du problème de conception et les conséquences de leurs décisions.De plus, nous évaluons à travers des sessions de travail l'acceptabilité des différentes techniques d'interprétation et d'agrégation utilisées dans la méthode MOIA. Cette évaluation conduit à une meilleure compréhension de l'environnement industriel du processus de décision dans les phases de conception. Enfin, nous visons à développer un outil d'aide à la décision qui aide les décideurs à négocier des solutions probablement optimales et acceptables pour eux dans les phases de conception préliminaire. Cet outil est considéré comme un outil collaboratif visant à minimiser les échanges itératifs entre les différents acteurs participant au processus de conception
Decision-making is a difficult and important step in the design process. It aims at guiding designers in the selection of design solutions between numerous alternatives. A specific process, derived from the combination between Model Based Systems Engineering (MBSE) and Morphogenesis, Observation, Interpretation, Aggregation (MOIA) ontology, and applied to vehicle embedded systems, is presented in this manuscript in order to find the optimal solution that responds to several demanded objectives. This process is based on an optimization algorithm, coupling models of both physical behaviors and designers’ preferences. It integrates a machine-learning algorithm in order to generate reduced simulation models operating in real-time mode. By using these simulation models, the computation time decreases. This improves the decision-making process and introduces a dynamic optimization process that lies on a dynamic vision of specifications, scenarios, client needs and preferences. This method is applied to optimize the powertrain of an electric vehicle, which includes battery, inverter, electric motor and gearbox, responding to three major objectives: autonomy, performance and cost.In addition, we develop a one-page user interface for the electric vehicle powertrain design case. This interface represents the design optimization framework using MOIA which provides a convenient way to structure the design problem. It is regarded as a proof of concept of an interactive tool where the different actors participating in the design process can check immediately the evolution of the design problem and the consequences of their decisions.Moreover, we evaluate through work sessions the acceptability of the different techniques of interpretation and aggregation used in the MOIA method. This assessment leads to a better understanding of the industrial environment of the decision-making process in the design phases. We finally aim to develop a decision-support tool that helps decision-makers to negotiate solutions that are probably optimal and acceptable for them in the preliminary design phases. This tool is considered as a collaborative tool aims at minimizing the iterative exchanges between the different actors participating in the design process
Style APA, Harvard, Vancouver, ISO itp.
47

Poulhiès, Marc. "Conception et implantation de système fondé sur les composants. Vers une unification des paradigmes génie logiciel et système". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM009.

Pełny tekst źródła
Streszczenie:
Le développement de logiciels pour les systèmes embarqués présente de nombreux défis. Cette thèse s'intéresse à ceux posés par les interactions entre les trois phases de conception, d'implantation et de validation. Nous nous intéressons aux caractéristiques du langage de conception et aux techniques de compilation qui permettent d'obtenir dans notre approche l'implantation et un modèle du système. L'analyse de ce modèle permet la validation de l'implantation, ce qui suppose que ce modèle représente fidèlement le système implanté. Nous proposons la construction d'un langage de conception basé sur l'utilisation de composants dont le comportement dynamique est supposé connu. Nous illustrons cette démarche avec un prototype complet appelé Buzz, dans lequel les composants sont des composants Think accompagnés de leur modèle comportemental en BIP. Le compilateur associé à Buzz génère une architecture à composants Think pour l'implantation et un modèle à composants BIP pour les analyses. Nous évaluons Buzz à travers deux expériences. La première présente le développement d'un logiciel pour un exemple simple sur lequel nous démontrons la pertinence des choix techniques. Think nous permet un support d'implantation complet et BIP rend possible la vérification d'un ensemble de propriétés dynamiques. La deuxième expérience est un portage de l'implantation d'un protocole radio utilisé dans des réseaux de capteurs et développée de manière classique, vers Buzz. Elle démontre l'effectivité de notre proposition en termes de langage (Buzz structure et simplifie le code original) ainsi qu'en termes d'outils (compilation et vérification)
Software development for embedded systems has many challenges. Ln this thesis, we address those related to the interactions between the three following phases of the software development process: the design phase, the implementation phase and the validation phase. We study the design language characteristics and compilation techniques. Ln our approach, they allow the creation of both an implementation of the system and a model for this implementation. Provided that this model faithfully corresponds to the implementation, the analysis of the model can validate the implemented system. We propose a process for building a language based on software components for which the dynamic behavior is supposed to be given. We illustrate this process with a prototype called Buzz. Buzz uses Think components enriched with their operation al behavioral model in BIP. We developed a compiler for Buzz by extending the current Think compiler. Il generates both an architecture of Think components for the implementation and a BIP model for the analysis. We evaluate Buzz through two experiments. The first ex periment details the software development for an academical example on which we show the soundness of our technical choices. Think provides implementation support (compilation, optimization, deployment) and BIP allows us to verify the system's dynamic properties. The second ex periment focuses on porting to Buzz an application convention ail y developed for a sensor network radio protocol. It underlines the efficiency of our proposaI both in terms of programming language (the result is more structured and simpler than the original code) and in terms of compilation tools and verifications
Style APA, Harvard, Vancouver, ISO itp.
48

Poulhiès, Marc. "Conception et Implantation de Système Fondé sur les Composants. Vers une Unification des Paradigmes Génie Logiciel et Système". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00514504.

Pełny tekst źródła
Streszczenie:
Cette thèse a été co-encadrée par le laboratoire MAPS/AMS de France Telecom R&D (aujourd'hui MAPS/SHINE) et le laboratoire VERIMAG. Le développement de logiciels pour les systèmes embarqués présente de nombreux défis. Cette thèse s'intéresse à ceux posés par les interactions entre les trois phases de conception (les développeurs construisent à partir de spécifications un modèle du système exprimé dans un langage de conception i.e. de programmation), d'implantation (le modèle précédent est compilé en un exécutable du système qui est finalement déployé sur les plateformes réelles) et de validation (un ensemble de techniques sont mises en \oe uvre pour vérifier que le système implanté est correct vis-à-vis des spécifications). Pour cela nous nous intéressons aux caractéristiques du langage de conception et aux techniques de compilation de ce langage. Celles-ci permettent d'obtenir dans notre approche à la fois l'implantation du système et un modèle du système implanté. L'analyse de ce modèle permet la validation de l'implantation, ce qui suppose que ce modèle représente fidèlement le système implanté. Nous proposons la construction d'un langage de conception basé sur l'utilisation de composants logiciels prédéfinis dont le comportement dynamique est supposé connu. Nous illustrons cette démarche par la réalisation d'un prototype complet d'un langage appelé Buzz, inspiré des modèles de programmation à acteurs dans lequel les composants logiciels utilisés sont des composants Think accompagnés de leur modèle comportemental opérationnel constitué d'un composant BIP. Le compilateur associé à Buzz que nous avons développé à partir du compilateur Think existant (Nuptse) génère simultanément une architecture à composants Think pour l'implantation et un modèle à composants BIP à des fins d'analyse. Nous évaluons Buzz à travers deux expériences. La première présente le développement de bout en bout d'un logiciel pour un exemple académique sur lequel nous démontrons la pertinence des choix techniques. Think nous permet un support d'implantation complet (compilation, optimisation, déploiement) et BIP rend possible la vérification d'un ensemble de propriétés dynamiques du système. La deuxième expérience consiste à porter une application réelle de protocole radio utilisée dans des réseaux de capteurs et développée de manière classique, vers Buzz. Cette expérience démontre l'effectivité de notre proposition tant en termes de langage de programmation (l'expressivité de Buzz structure et simplifie le code original) qu'en termes d'outils de compilation et de vérification.
Style APA, Harvard, Vancouver, ISO itp.
49

Menighed, Kamel. "Commandes coopératives embarquées et tolérantes aux défauts". Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00545412.

Pełny tekst źródła
Streszczenie:
Le travail présenté dans ce mémoire de thèse porte sur la tolérance aux défauts dans le cas des systèmes linéaires. Les moyens de communication numériques sont utilisés dans le cadre de la mise en oeuvre d'une architecture de commande tolérante aux défauts pour des systèmes complexes. Une coopération entre les modules de commande/diagnostic assure la tolérance à certains types de défauts qui affectent le système. La commande des systèmes est traditionnellement réalisée à partir d'un calculateur central qui collecte l'ensemble des informations relevées sur le procédé, puis les traite pour élaborer un ensemble de commande qui est appliqué au procédé. Avec le développement des systèmes commandés en réseaux (Networked Control System) et des systèmes embarqués, l'architecture des systèmes s'oriente vers une distribution des algorithmes de commande et de diagnostic. On se propose d'aborder le problème de la conception des stratégies de distribution de diagnostic/commande et de coopération des tâches de commande entre les sous-contrôleurs associés à chaque sous-système qui composent le système complexe et de prendre en compte les défauts des actionneurs et de capteurs affectant les sous-systèmes. Il s'agit alors d'élaborer une stratégie de commande coopérative visant à compenser les effets des défauts affectant le système. Les commandes locales sont des commandes prédictives à base de modèle (MPC : Model Predictive Control). Une analyse de stabilité a été faite en prenant en considération la défaillance du réseau de communication.
Style APA, Harvard, Vancouver, ISO itp.
50

Idrees, Muhammad Sabir. "Ingénierie des exigences pour la conception d'architectures de sécurité de systèmes embarqués distribués". Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0045/document.

Pełny tekst źródła
Streszczenie:
Au cours des dix dernières années, l’impact des questions de sécurité sur le développement et la mise en oeuvre des systèmes embarqués distribués n’a jamais cessé de croître. Ceci est principalement lié à l’interconnexion toujours plus importante de ces systèmes qui les rend vulnérables aux attaques, ainsi qu’à l’intérêt économique d’attaquer ces systèmes qui s’est simultanément accru. Dans un tel contexte, méthodologies et outils d’ingénierie des exigences de sécurité sont devenus indispensables pour prendre des décisions appropriées quant a` la sécurité, et ce le plus tôt possible. L’ingénierie des exigences devrait donc fournir une aide substantielle à l’explicitation et à la spécification des problèmes et solutions de sécurité des logiciels bien avant que concepteurs et développeurs ne soient engagés dans une implantation en particulier. Toutefois, et c’est particulièrement vrai dans les systèmes embarqués, les exigences de sécurité ne doivent pas être considérées seulement comme l’expression abstraite d’un ensemble de propriétés indépendamment de l’architecture système ou des menaces et des attaques qui pourraient y survenir. Nous estimons que cette considération est d’une importance capitale pour faire de l’ingénierie des exigences un guide et un moteur de la conception et de la mise en œuvre d’un système sécurisé. Notre approche s’appuie en particulier sur une approche centrée sur les connaissances de l’ingénierie des exigences de sécurité, applicable dès les premières phases de conception du système jusqu’à la mise en application des exigences de sécurité dans l’implantation
During the last ten years, the impact of security concerns on the development and exploration of distributed embedded systems never ceased to grow. This is mainly related to the fact that these systems are increasingly interconnected and thus vulnerable to attacks, and that the economic interest in attacking them has simultane- ously increased. In such a context, requirement engineering methodologies and tools have become necessary to take appropriate decisions regarding security early on. Security requirements engineering should thus strongly support the elicitation and specifica- tion of software security issues and solutions well before designers and developers are committed to a particular implementation. However, and that is especially true in embedded systems, security requirements should not be considered only as the abstract expression of a set of properties independently from the system architecture or from the threats and attacks that may occur. We believe this consideration is of utmost importance for security requirements engineering to be the driving force behind the design and implementation of a secure system. We thus describe in this thesis a security engineering requirement methodology depending upon a constant dialog between the design of system functions, the requirements that are attached to them, the design and development of the system architecture, and the assessment of the threats to system assets. Our approach in particular relies on a knowledge-centric approach to security requirement engineering, applicable from the early phases of system conceptualization to the enforcement of security requirements
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii