To see the other types of publications on this topic, follow the link: Architecture matérielle et logicielle.

Dissertations / Theses on the topic 'Architecture matérielle et logicielle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Architecture matérielle et logicielle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Omar, Tariq Ali. "Une architecture mixte logicielle et matérielle pour le contrôle intelligent en temps réel." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0089.

Full text
Abstract:
Le Contrôle intelligente d'un système autonome dans un environnement dynamique et dangereux exige la capacité d'identifier les menaces d'échec et de planifier les réponses temps-réel qui peut assurer la sécurité et l'objectif du système autonome. Nous proposons une architecture pour le contrôle intelligent en temps-réel, appelée ORICA. Elle se compose d'un sous-système de raisonnement IA et d'un sous-système d'exécution temps-réel de réponse. Le sous-système de raisonnement modélise des caractéristiques temporelles et logiques du comportement environnemental et planifie les réponses du système. Le sous-système temps-réel, composé d'une partie logicielle et d'une partie matérielle, exécute ces réponses pour éviter l'échec du système autonome. Il donne une performance inégalée par rapport aux précédentes approches conventionnelles. Le comportement unique de l'intelligence reconfigurable est implanté dans la partie matérielle, avec un circuit logique reprogrammable (FPGA)
Autonomous intelligent control system for a dynamic and dangerous environment necessitates the capacity to identify the failure threats and to plan the real-time responses that ensure safety and goal achievement by the autonomous system. We propose a real-time intelligent control architecture called ORICA. It consists of an AI reasoning subsystem and a real-time response execution subsystem. The AI reasoning subsystem models the temporal and logical characteristics of the environment and plans the system responses. The real-time subsystem, which is composed of a software section and a hardware section, executes these responses to avoid failure of the autonomous system. Its performance behavior is unparalleled by the previous classical approaches (pure hardware or pure software). The software section uses behavior switching according to the frequency of external events and a unique reconfigurable intelligence behavior has been implemented in hardware section, using a reprogrammable chip (FPGA)
APA, Harvard, Vancouver, ISO, and other styles
2

Maillot, Patrick. "Contribution à l'étude des systèmes graphiques : architectures logicielle et matérielle." Lyon 1, 1986. http://www.theses.fr/1986LYO19048.

Full text
Abstract:
Le travail présenté ici s'appuie sur deux éléments : le premier, développé au laboratoire d'informatique Lyon 1, est constitué des logiciels graphiques PATK2D ET PATK3D qui ont servi de support aux solutions proposées en matière de logiciel. Le second élément est le terminal graphique TGI11XX, conçu par la Société SECAPA.
APA, Harvard, Vancouver, ISO, and other styles
3

Jordan, Harald. "Architectures logicielle et matérielle d'un contrôleur de robot multisensoriel : méthodologie et conception du système temps réel." Université Louis Pasteur (Strasbourg) (1971-2008), 1997. http://www.theses.fr/1997STR13155.

Full text
Abstract:
Ce travail présente la méthodologie de développement d'un contrôleur de robot multisensoriel. Ce contrôleur se distingue par son ouverture, sa modularité et son évolutivité qui doivent permettre d'intégrer facilement de multiples capteurs intelligents et avancés. Notre approche consiste essentiellement dans une modélisation des besoins du contrôleur et ceci indépendamment de la réalisation matérielle. Après avoir défini les exigences du robot et de l'environnement vis-à-vis du contrôleur, nous avons choisi la méthode de modélisation Structured Analyses - Real-Time II (Hatley et Pirbhai 1991) qui nous a permis d'établir le modèle des besoins. Parmi les différentes architectures présentées dans la littérature, seule une architecture hiérarchique est adaptée pour répondre aux exigences prédéfinies. Nous avons ensuite retenu la notion des capteurs logiques (Henderson et Shilcrat 1984) que nous avons étendu afin de permettre de commander un système de capteurs extéroceptifs. Les interfaces du contrôleur sont, si possible, des standards existants. L'établissement du modèle des besoins s'est déroulé en deux étapes : le modèle pour un contrôleur minimal a été développé, ensuite nous avons étendu ce modèle à l'utilisation d'un système de vision. L'évaluation des modèles nous a demandé d'étendre la méthode SA-RT par l'utilisation des réseaux de Petri et des diagrammes d'activation de processus. Ces deux outils servent à vérifier la synchronisation des processus. L'estimation de puissance de calcul et des flux d'informations complète l'évaluation. Cette estimation a montré que l'implémentation du contrôleur minimal sur un ordinateur doté d'un processeur Pentium est possible. Nous avons ensuite établi les modèles d'architecture matérielle basés sur un tel ordinateur. Le développement de ces deux modèles suit celui des modèles des besoins : développement du modèle minimal et du modèle étendu.
APA, Harvard, Vancouver, ISO, and other styles
4

Koné, Chaka. "Architecture logicielle et matérielle d'un système de détection des émotions utilisant les signaux physiologiques. Application à la mnémothérapie musicale." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4042/document.

Full text
Abstract:
Ce travail de thèse s’inscrit dans le domaine de l’informatique affective et plus précisément de l’intelligence artificielle et de l’exploration d’architecture. L’objectif de ce travail est de concevoir un système complet de détection des émotions en utilisant des signaux physiologiques. Ce travail se place donc à l’intersection de l’informatique pour la définition d’algorithme de détection des émotions et de l’électronique pour l’élaboration d’une méthodologie d’exploration d’architecture et pour la conception de nœuds de capteurs. Dans un premier temps, des algorithmes de détection multimodale et instantanée des émotions ont été définis. Deux algorithmes de classification KNN puis SVM, ont été implémentés et ont permis d’obtenir un taux de reconnaissance des émotions supérieurs à 80%. Afin de concevoir un tel système alimenté sur pile, un modèle analytique d’estimation de la consommation à haut niveau d’abstraction a été proposé et validé sur une plateforme réelle. Afin de tenir compte des contraintes utilisateurs, un outil de conception et de simulation d’architecture d’objets connectés pour la santé a été développé, permettant ainsi d’évaluer les performances des systèmes avant leur conception. Une architecture logicielle/matérielle pour la collecte et le traitement des données satisfaisant les contraintes applicatives et utilisateurs a ainsi été proposée. Doté de cette architecture, des expérimentations ont été menées pour la Mnémothérapie musicale. EMOTICA est un système complet de détection des émotions utilisant des signaux physiologiques satisfaisant les contraintes d’architecture, d’application et de l’utilisateur
This thesis work is part of the field of affective computing and more specifically artificial intelligence and architectural exploration. The goal of this work is to design a complete system of emotions detection using physiological signals. This work is therefore situated at the intersection of computer science for the definition of algorithm of detection of emotions and electronics for the development of an architecture exploration methodology for the design of sensor nodes. At first, algorithms for multimodal and instantaneous detection of emotions were defined. Two algorithms of classification KNN then SVM, were implemented and made it possible to obtain a recognition rate of the emotions higher than 80%. To design such a battery-powered system, an analytical model for estimating the power consumption at high level of abstraction has been proposed and validated on a real platform. To consider user constraints, a connected object architecture design and simulation tool for health has been developed, allowing the performance of systems to be evaluated prior to their design. Then, we used this tool to propose a hardware/software architecture for the collection and the processing of the data satisfying the architectural and applicative constraints. With this architecture, experiments have been conducted for musical Mnemotherapy. EMOTICA is a complete system for emotions detection using physiological signals satisfying the constraints of architecture, application and user
APA, Harvard, Vancouver, ISO, and other styles
5

Denoyelle, Nicolas. "De la localité logicielle à la localité matérielle sur les architectures à mémoire partagée, hétérogène et non-uniforme." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0201/document.

Full text
Abstract:
La hiérarchie mémoire des serveurs de calcul est de plus en plus complexe. Les machines disposent de plusieurs niveaux de caches plus ou moins partagés et d’une mémoire distribuée. Plus récemment le paysage du Calcul Haute Performance (CHP) a vu apparaître des mémoires adressables embarquées dans le processeur ainsi que de nouvelles mémoires non-volatiles (périphérique mémoire sur le bus d’entrées sorties et prochainement de la mémoire non-volatile directement sur le bus mémoire). Cette hiérarchie est nécessaire pour espérer obtenir de bonnes performances de calcul, au prix d’une gestion minutieuse du placement des données et des tâches de calcul. Là où la gestion des caches était entièrement matérielle et masquée au développeur, le choix du placement des données dans telle ou telle zone de mémoire, plus ou moins rapide, volatile ou non, volumineuse ou non, est maintenant paramétrable logiciellement. Cette nouvelle flexibilité donne une grande liberté aux développeurs mais elle complexifie surtout leur travail quand il s’agit de choisir les stratégies d’allocation, de communication, de placement, etc. En effet, les caractéristiques des nombreux niveaux de hiérarchie impliqués varient significativement en vitesse, taille et fonctionnalités. Dans cette thèse, co-encadrée entre Atos Bull Technologies et Inria Bordeaux– Sud-Ouest, nous détaillons la structure des plates-formes contemporaines et caractérisons la performance des accès à la mémoire selon plusieurs scénarios de localité des tâches de calcul et des données accédées. Nous expliquons comment la sémantique du langage de programmation impacte la localité des données dans la machine et donc la performance des applications. En collaboration avec le laboratoire INESC-ID de Lisbonne, nous proposons une extension au célèbre modèle Roofline pour exposer de manière intelligible les compromis de performance et de localité aux développeurs d’applications. Nous proposons par ailleurs un outil de synthèse de métriques de localité mettant en lien les évènements de performance de l’application et de la machine avec la topologie de cette dernière. Enfin, nous proposons une approche statistique pour sélectionner automatiquement la meilleure politique de placement des tâches de calcul sur les coeurs de la machine et des données sur les mémoires
Through years, the complexity of High Performance Computing (HPC) systems’ memory hierarchy has increased. Nowadays, large scale machines typically embed several levels of caches and a distributed memory. Recently, on-chip memories and non-volatile PCIe based flash have entered the HPC landscape. This memory architecture is a necessary pain to obtain high performance, but at the cost of a thorough task and data placement. Hardware managed caches used to hide the tedious locality optimizations. Now, data locality, in local or remote memories, in fast or slow memory, in volatile or non-volatile memory, with small or wide capacity, is entirely software manageable. This extra flexibility grants more freedom to application designers but with the drawback of making their work more complex and expensive. Indeed, when managing tasks and data placement, one has to account for several complex trade-offs between memory performance, size and features. This thesis has been supervised between Atos Bull Technologies and Inria Bordeaux – Sud-Ouest. In the hereby document, we detail contemporary HPC systems and characterize machines performance for several locality scenarios. We explain how the programming language semantics affects data locality in the hardware, and thus applications performance. Through a joint work with the INESC-ID laboratory in Lisbon, we propose an insightful extension to the famous Roofline performance model in order to provide locality hints and improve applications performance. We also present a modeling framework to map platform and application performance events to the hardware topology, in order to extract synthetic locality metrics. Finally, we propose an automatic locality policy selector, on top of machine learning algorithms, to easily improve applications tasks and data placement
APA, Harvard, Vancouver, ISO, and other styles
6

Njoyah, ntafam Perrin. "Méthodologie d'identification et d'évitement des cycles de gel du processeur pour l'optimisation de la performance du logiciel sur le matériel." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM021/document.

Full text
Abstract:
L’un des objectifs de la microélectronique est de concevoir et fabriquer des SoCs de petites tailles, à moindre coût et visant des marchés tel que l’internet des objets. À matériel fixe sur lequel l’on ne dispose d’aucune marge de manœuvre, l’un des challenges pour un développeur de logiciels embarqués est d’écrire son programme de manière à ce qu’à l’exécution, le logiciel développé puisse utiliser au mieux les capacités de ces SoCs. Cependant, ces programmes n’utilisent pas toujours correctement les capacités de traitement disponibles sur le SoC. L’estimation et l’optimisation de la performance du logiciel devient donc une activité cruciale. A l’exécution, ces programmes sont très souvent victimes de l’apparition de cycles de gel de processeur dus à l’absence de données en mémoire cache. Il existe plusieurs approches permettant d’éviter ces cycles de gel de processeur. Par l’exemple l’utilisation des options de compilation adéquates pour la génération du meilleur code exécutable possible. Cependant les compilateurs n’ont qu’une idée abstraite (sous forme de formules analytiques) de l’architecture du matériel sur lequel le logiciel s’exécutera. Une alternative est l’utilisation des processeurs « Out–Of–Order ». Mais ces processeurs sont très couteux en terme de coût de fabrication car nécessites une surface de silicium importante pour l’implantation de ces mécanismes. Dans cette thèse, nous proposons une méthode itérative basée sur les plateformes virtuelles précises au niveau du cycle qui permet d’identifier les instructions du programme à optimiser responsables à l’exécution, de l’apparition des cycles de gel de processeur dus à l’absence de données dans le cache L1. L’objectif est de fournir au développeur des indices sur les emplacements du code source de son programme en langage de haut niveau (C/C++ typiquement) qui sont responsables de ces gels. Pour chacune de ces instructions, nous fournissons leur contribution au rallongement du temps d’exécution totale du programme. Finalement nous estimons le gain potentiel maximal qu’il est possible d’obtenir si tous les cycles de gel identifiés sont évités en insérant manuellement dans le code source du programme à optimiser, des instructions de pré–chargement de données dirigé par le logiciel
One of microelectronics purposes is to design and manufacture small-sized, low-cost SoCs targeting markets such as the Internet of Things. With fixed hardware on which there is no possible flexibility, one of the challenges for an embedded software developer is to write his program so that, at runtime, the software developed can make the best use of these SoC capabilities. However, these programs do not always properly use the available SoC processing capabilities. Software performance estimation and optimization is then a crucial activity. At runtime, these programs are very often victims of processor data stall cycles. There are several approaches to avoiding these processor data stall cycles. For example, using the appropriate compilation options to generate the best executable code. However, the compilers have only an abstract knowledge (as analytical formulas) of the hardware architecture on which the software will be executed. Another way of solving this issue is to use Out-Of- Order processors. But these processors are very expensive in terms of manufacturing cost because they require a large silicon surface for the implementation of the Out-Of-Order mechanism. In this thesis, we propose an iterative methodology based on cycle accurate virtual platforms, which helps identifying precisely instructions of the program which are responsible of the generation of processor data stall cycles. The goal is to provide the developer with clues on the source code lignes of his program’s in high level language (C/C++ typically) which are responsible of these stalls. For each instructions, we provide their contribution to lengthening of the total program execution time. Finally, we estimate the maximum potential gain that can be achieved if all identified stall cycles are avoided by manually inserting software preloading instructions into the source code of the program to optimize
APA, Harvard, Vancouver, ISO, and other styles
7

Barrenscheen, Jens. "Commande économique d'un moteur synchrone à aimant permanent - architecture matérielle et logicielle - estimation de la position - modélisation dynamique au sens des systèmes échantillonnes." Paris 6, 1995. http://www.theses.fr/1995PA066516.

Full text
Abstract:
Ce mémoire traite une commande numérique d'un moteur synchrone a aimant en vue d'une réalisation économique. L'utilisation des dispositifs de commande a faible coût nécessite une adéquation fine entre les structures algorithmiques et l'architecture matérielle pour conserver des performances satisfaisantes du moteur asservi en couple et en vitesse. Dans le but d'améliorer le rapport cout-performances du système, un algorithme original d'estimation de la position du rotor est propose. Cela permet de remplacer le capteur mécanique par un estimateur logiciel. La structure controle-estimation de la commande étudiée engendre une forte interaction entre les performances et la robustesse de l'asservissement d'une part et les paramètres des correcteurs d'autre part. Dans ce but, une modélisation fine au sens de petites variations a été developpee. Ce modèle permet de tenir compte du caractère échantillonne de la commande numérique et des discontinuités introduites par l'alimentation fonctionnant en mli. Le système étudie est donc non-lineaire et il comporte des grandeurs discrètes et des grandeurs continues dans le temps. En outre, l'échantillonnage est fait a fréquence variable. L'utilisation d'un algorithme de newton rend possible la détermination acceleree du régime permanent. L'utilisation des fonctions de sensibilité permet de décrire les propriétés dynamiques du système et de choisir les coefficients des correcteurs par placement de pôles
APA, Harvard, Vancouver, ISO, and other styles
8

Fiandino, Maxime. "Exploration d'architectures basée sur la génération automatique de plates-formes matérielles et le portage rapide du logiciel." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0053.

Full text
Abstract:
L’approche proposée se déroule selon un flot itératif en trois étapes. L’une concerne la modification et le développement rapide du modèle exécutable de l’architecture. Une autre vise le portage rapide des logiciels. La troisième est l’exploration d’architecture logicielle et matérielle. Un outil a été développé pour créer et modifier rapidement un HMPSoC à partir de sous-systèmes de traitement paramétrables. Une méthode permet d’adapter le logiciel sur une architecture, elle inclut: paramétrer manuellement le logiciel applicatif, l’extraction automatique des caractéristiques de l’architecture, la génération des sources de bas niveau. Enfin une méthode permet d’effectuer des simulations multi-niveaux des processeurs. Les simulations de haut niveau servent pour exécuter rapidement les logiciels embarqués, les simulations précises en mode bas niveau (ISS) pour mesurer les performances. Suivant les résultats, l’architecture et les logiciels sont modifiés et le cycle peut reprendre
The proposed approach is an iterative flow in three steps. The first one is the fast development and modification of the architecture executable model. The second one is the adaptation of the embedded software. The third one is the hardware and software architecture exploration. A tool has been developed in order to create and modify quickly a hardware architecture model. It uses flexible sub-systems. One method in order to adapt the embedded software is exposed, it includes: to manually add some parameterization in the software, an automatic extraction of the architecture characteristics, the generation of the low level code sources. To finish a method allow to simulate processors at different level of simulation with their embedded software, high level for fast simulation, low level for performance measurements. Following results, hardware and software are modified and the flow can restart. This flow was tested on a real application, a parallelized H264 encoder
APA, Harvard, Vancouver, ISO, and other styles
9

Vincke, Bastien. "Architectures pour des systèmes de localisation et de cartographie simultanées." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00770323.

Full text
Abstract:
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.
APA, Harvard, Vancouver, ISO, and other styles
10

Guerif, Benjamin. "Conception d’une sonde programmable, polyvalente et abordable pour l'imagerie médicale ultrasonore volumétrique en temps réel." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLS041.

Full text
Abstract:
Selon l’Organisation Mondiale de la Santé, les maladies cardiovasculaires sont la principale cause de décès dans le monde avec 17.9 millions de décès soit 32% des morts constatés en 2019. L’échocardiographie transthoracique (TTE), une technique d’imagerie ultrasonore non invasive et non irradiante, s’est alors imposée comme un outil de diagnostic efficace permettant d’identifier les dysfonctionnements du muscle cardiaque. Cette technique permet alors de procéder à une analyse morphologique et cinétique du cœur à l’aide de techniques d’imagerie dites conventionnelles.D’autres techniques alternatives telles que l’imagerie ultrarapide proposent des modalités complémentaires pouvant permettre d’améliorer le diagnostic des maladies cardiovasculaires. Si ces techniques ont pu faire leurs preuves en imagerie bidimensionnelle (2D), différentes barrières technologiques s’opposent à sa démocratisation en imagerie tridimensionnelle (3D). En effet, le passage de la 2D à la 3D nécessite d’adresser des réseaux de transducteurs de plusieurs milliers de voies. Les systèmes d’imagerie cliniques ayant un nombre de voies limité (le plus souvent à 256), l’utilisation de techniques dites de réduction de voie s’avère donc nécessaire. L’une d’entre elles, appelée micro-formation de faisceau, s’est ainsi démarquée en proposant des performances d’imagerie conventionnelles 3D similaires à une sonde d’imagerie 2D. Cette technologie est le plus souvent fermé et semble a priori difficilement compatible avec des techniques d’imagerie alternative. Ce faisant l’imagerie ultrarapide s’est rapidement orientée sur des techniques de réduction de voie alternatives telles que les réseaux ligne-colonne, les réseaux clairsemés ou l’utilisation de systèmes d’imagerie encombrants avec des sondes matricielles de plus petite surface acoustique et composée de milliers d’éléments.Dans cette thèse, un premier travail visant à améliorer les techniques d’imagerie ultrarapide existantes est proposé en nous appuyant sur l’utilisation d’une nouvelle sonde complètement peuplée composée de 3072 éléments associée à nouveau système d’imagerie de plusieurs milliers de voies. Par la suite, la définition et l’étude d’une sonde matricielle active dédiée à l’imagerie TTE reposant sur l’utilisation de la micro-formation de faisceau et composée de plusieurs milliers d’éléments pilotés par un unique système d’imagerie est proposée. Enfin, un prototype de sonde de micro-formation de faisceau est réalisé et évalué expérimentalement à l’aide d’un échographe de recherche ouvert afin de proposer une première sonde suffisamment polyvalente, programmable et abordable pour rendre accessible cette technologies aux laboratoires de recherche et ainsi offrir de nouveaux outils de diagnostic en échocardiographie transthoracique 3D
Selon l’Organisation Mondiale de la Santé, les maladies cardiovasculaires sont la principale cause de décès dans le monde avec 17.9 millions de décès soit 32% des morts constatés en 2019. L’échocardiographie transthoracique (TTE), une technique d’imagerie ultrasonore non invasive et non irradiante, s’est alors imposée comme un outil de diagnostic efficace permettant d’identifier les dysfonctionnements du muscle cardiaque. Cette technique permet alors de procéder à une analyse morphologique et cinétique du cœur à l’aide de techniques d’imagerie dites conventionnelles.D’autres techniques alternatives telles que l’imagerie ultrarapide proposent des modalités complémentaires pouvant permettre d’améliorer le diagnostic des maladies cardiovasculaires. Si ces techniques ont pu faire leurs preuves en imagerie bidimensionnelle (2D), différentes barrières technologiques s’opposent à sa démocratisation en imagerie tridimensionnelle (3D). En effet, le passage de la 2D à la 3D nécessite d’adresser des réseaux de transducteurs de plusieurs milliers de voies. Les systèmes d’imagerie cliniques ayant un nombre de voies limité (le plus souvent à 256), l’utilisation de techniques dites de réduction de voie s’avère donc nécessaire. L’une d’entre elles, appelée micro-formation de faisceau, s’est ainsi démarquée en proposant des performances d’imagerie conventionnelles 3D similaires à une sonde d’imagerie 2D. Cette technologie est le plus souvent fermé et semble a priori difficilement compatible avec des techniques d’imagerie alternative. Ce faisant l’imagerie ultrarapide s’est rapidement orientée sur des techniques de réduction de voie alternatives telles que les réseaux ligne-colonne, les réseaux clairsemés ou l’utilisation de systèmes d’imagerie encombrants avec des sondes matricielles de plus petite surface acoustique et composée de milliers d’éléments.Dans cette thèse, un premier travail visant à améliorer les techniques d’imagerie ultrarapide existantes est proposé en nous appuyant sur l’utilisation d’une nouvelle sonde complètement peuplée composée de 3072 éléments associée à nouveau système d’imagerie de plusieurs milliers de voies. Par la suite, la définition et l’étude d’une sonde matricielle active dédiée à l’imagerie TTE reposant sur l’utilisation de la micro-formation de faisceau et composée de plusieurs milliers d’éléments pilotés par un unique système d’imagerie est proposée. Enfin, un prototype de sonde de micro-formation de faisceau est réalisé et évalué expérimentalement à l’aide d’un échographe de recherche ouvert afin de proposer une première sonde suffisamment polyvalente, programmable et abordable pour rendre accessible cette technologies aux laboratoires de recherche et ainsi offrir de nouveaux outils de diagnostic en échocardiographie transthoracique 3D
APA, Harvard, Vancouver, ISO, and other styles
11

Gailliard, Grégory. "Vers une approche commune pour le logiciel et le matériel de spécification et d’implémentation des systèmes embarqués temps-réels distribués, basée sur les intergiciels et les composants orientés objet : Application aux modèles de composants Software Communications Architecture (SCA) et Lightweight Corba Component Model (LwCCM) pour les systèmes de radio logicielle." Cergy-Pontoise, 2010. http://biblioweb.u-cergy.fr/theses/2010CERG0518.pdf.

Full text
Abstract:
Cette thèse s’intéresse à la déclinaison matérielle des concepts logiciels d’intergiciel et d’architecture logicielle à base de composants, conteneurs et connecteurs dans les réseaux de portes programmables in situ (Field-Programmable Gate Array - FPGA). Le domaine d’applications ciblé est la radio définie logiciellement (Software Defined Radio (SDR)) conforme au standard Software Communications Architecture) (SCA). Avec le SCA, les applications radio sont décomposées en composants fonctionnels, qui sont déployés sur des plateformes radios hétérogènes et distribuées. Ces composants fournissent et requièrent des interfaces logicielles abstraites décrites sous forme de signatures d’opérations dans le langage de modélisation unifié appelé Unified Modeling Language (UML) et/ou le langage de définition d’interface (Interface Definition Language - IDL) de l’intergiciel CORBA (Common Object Request Broker Architecture) standardisé par un consortium industriel appelé Object Management Group (OMG). Les besoins de portabilité et de réutilisation de ces composants requièrent que leurs interfaces abstraites définies au niveau système soient indépendantes d’une implémentation logicielle ou matérielle et puissent être indifféremment traduites dans un langage de programmation logiciel tel que C/C++, un langage système tel que SystemC au niveau transaction (Transaction Level Modeling - TLM), ou un langage de description matériel tel que VHDL ou SystemC au niveau registre (Register Transfer Level - (RTL)). Le besoin d’interopérabilité de ces composants requière des communications transparentes quelques soient leur implémentation logicielle ou matérielle et leur distribution. Ces premiers besoins ont été adressés en formalisant des règles de mise en correspondance entre des composants abstraits en OMG IDL3 ou UML2, des composants matériels à base de signaux en VHDL ou SystemC RTL, et des composants systèmes en SystemC TLM. Le deuxième besoin a été adressé en prototypant un intergiciel matériel utilisant de façon transparente le mapping mémoire et deux protocoles messages : CORBA General Inter-Object Request Broker Protocol (GIOP) et SCA Modem Hardware Abstraction Layer (MHAL)
This thesis deals with the hardware application of the software concepts of middleware and software architecture based on components, containers and connectors within Field-Programmable Gate Arrays (FPGAs). The target application domain is Software Defined Radio (SDR) compliant with the Software Communications Architecture (SCA). With the SCA, software radio applications are broken into functional waveform components to be deployed on heterogeneous and distributed hardware/software radio platforms. These components provide and require abstract software interfaces described using operation signatures in the Unified Modeling Language (UML) and/or the Interface Definition Language (IDL) of the Common Object Request Broker Architecture (Corba) middleware, both standardized by an international software industry consortium called Object Management Group (OMG). The portability and reusability needs of these business components require that their abstract interfaces defined at a system level are independent of a software or hardware implementation and can be indifferently translated into a software programming language like C/C++, a system language like SystemC at transaction level (Transaction Level Modeling - TLM), or a hardware description language like VHDL or SystemC at Register Transfer Level (RTL). The interoperability need of SDR components requires transparent communications regardless of their hardware/software implementation and their distribution. These first needs were addressed by formalizing mapping rules between abstract components in OMG IDL3 or UML2, signalbased hardware components described in VHDL or SystemC RTL, and system components in SystemC TLM. The second requirement was addressed by prototyping a hardware middleware using transparently memory mapping and two message protocols: Corba General Inter-Object Request Broker Protocol (GIOP) and SCA Modem Hardware Abstraction Layer (MHAL)
APA, Harvard, Vancouver, ISO, and other styles
12

Le, Goaer Olivier. "Styles d'évolution dans les architectures logicielles." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00459925.

Full text
Abstract:
Les architectures logicielles ont été introduites en réponse à l'accroissement de la complexité des systèmes, en favorisant leurs descriptions à un haut niveau d'abstraction. Dans cette thèse, nous proposons d'aborder la problématique de leurs évolutions avec comme objectif, de capitaliser les évolutions récurrentes et de favoriser leur réutilisation. Notre contribution se décline en deux volets majeurs. Le premier volet concerne la proposition du modèle d'évolution SAEM (Style-based Architectural Evolution Model), permettant l'abstraction, la spécification et la gestion de l'évolution dans les architectures logicielles au travers du concept de style d'évolution. SAEM se veut un modèle d'évolution générique, uniforme et indépendant de tout langage de description d'architecture. Le formalisme proposé décrit les concepts du style d'évolution selon un tryptique : domaine, entête et compétence. Le deuxième volet concerne le développement d'une approche de réutilisation par dessus SAEM pour tenter de rendre les activités d'évolution plus rentables. Nous proposons une démarche pour la construction de bibliothèques pour les styles d'évolution, orchestrée par différentes catégories d'intervenants. Les bibliothèques sont élaborées selon deux types de processus complémentaires : « pour la réutilisation » et « par la réutilisation ». Nous présentons une technique de raisonnement classificatoire pour permettre aux bibliothèques d'être peuplées et interrogées dans le but de gérer les savoir et savoir-faire relatifs à l'évolution architecturale.
APA, Harvard, Vancouver, ISO, and other styles
13

Ginhac, Dominique. "Adéquation Algorithme architecture : Aspects logiciels, matériels et cognitifs." Habilitation à diriger des recherches, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00646480.

Full text
Abstract:
Les travaux présentés dans le cadre de cette Habilitation à Diriger des Recherches s'inscrivent principalement dans la problématique dite d'" Adéquation Algorithme Architecture ". Ils ont pour objectif commun la mise en œuvre de systèmes matériels et logiciels dédiés à la vision artificielle à fortes contraintes temporelles. Ils se focalisent sur différents aspects cruciaux tels que l'acquisition d'images par des capteurs dédiés, le développement et la programmation d'architectures optimisées de traitement des images et l'implantation d'algorithmes de traitement du signal et d'images en temps réel sur ces architectures.
APA, Harvard, Vancouver, ISO, and other styles
14

Damou, Elmehdi. "ApAM : Un environnement pour le développement et l'exécution d'applications ubiquitaires." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00911462.

Full text
Abstract:
Simplifier notre interaction avec les entités informatiques interconnectées de notre environnement et faciliter l'exploitation des informations générées par celles-ci est l'objectif des environnements et des applications ubiquitaires. Le comportement des applications ubiquitaires dépend de l'état et de la disponibilité des entités (logiciels ou dispositifs) qui composent l'environnement ubiquitaire dans lequel elles évoluent, ainsi que des préférences et localisations des utilisateurs. Développer et exécuter des applications ubiquitaires est un véritable défi que notre approche essaie de relever au travers de l'environnement d'exécution ApAM. Considérant que l'environnement d'exécution est imprévisible, nous partons du principe qu'une application ubiquitaire doit disposer d'une grande flexibilité dans le choix de ses composants et que cette composition doit être automatique. Nous proposons une description abstraite et implicite de la composition (où les composants et les liens entre eux ne sont pas décrits explicitement), ce qui permet de construire l'application incrémentalement pendant la phase d'exécution. La plate-forme d'exécution ApAM implémente ces mécanismes de composition incrémentale et s'en sert pour conférer aux applications ubiquitaires la capacité de " résister " et de s'adapter aux changements imprévisibles de l'environnement d'exécution. Cette propriété dite de résilience est au coeur de notre approche car elle permet aux programmeurs de développer " simplement " des applications " résilientes " sans avoir à décrire les diverses adaptations à réaliser et même sans connaître toutes les perturbations de l'environnement auxquelles elles seront soumises. Notre proposition offre le moyen de développer et d'exécuter des applications ayant un haut niveau de résilience vis-à-vis des évolutions de leur contexte d'exécution, grâce à des mécanismes automatiques capables de construire et de modifier à l'exécution l'architecture logicielle des applications ubiquitaire. Les mécanismes fournis sont génériques mais peuvent être étendus et spécialisés pour s'adapter plus finement à certaines applications ou à des domaines métiers spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
15

Crespo, Saucedo Raùl. "Plate-forme logicielle et matérielle pour le turbo codage et décodage : Turbo2000." Lorient, 2004. http://www.theses.fr/2004LORIS030.

Full text
Abstract:
Cette thèse s'incrit dans le cadre de l'interaction algorithme/silicium pour la conception de circuits intégrés numériques de haute performance sur FPGA. Elle traite de la conception et de la réalisation d'une plate-forme logicielle et matérielle pour le codage et le décodage des turbo codes duo-binaires à 16 états, appelés codes Turbo2000. Cette plate-forme est constituée de deux parties : une partie matérielle et une partie logicielle. La partie matérielle consiste en un circuit décodeur duo-binaire à 16 états à haut débit et en une interface entre le décodeur et le bus PCI de l'ordinateur, tous deux implémentés dans un même composant FPGA. Le décodage du circuit fait appel à l'algorithme Max-Log-MAP. La partie logicielle, programmée en visual C++, est chargée du processus de codage, de la génération du bruit, de la modulation, de la démodulation, de l'option de décodage logiciel et de la mesure des performances de BER et de FER, ainsi que l'affichage graphique des résultats. La plate-forme de codage/décodage Turbo2000 a été conçue de telle sorte à offrir à l'utilisateur une grande flexibilité dans le maniement des paramètres de codage et de décodage, nécessaires aux nombreux cas de figures envisagés. Le décodage, dans sa version hardware, offre des débits au minimum 20 fois plus élevés qu'avec la version software.
APA, Harvard, Vancouver, ISO, and other styles
16

Nguyen, Viêt Tung. "Infrastructure matérielle et logicielle pour la fusion/fission d'interface homme-machine." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0107.

Full text
Abstract:
Aujourd’hui les Interfaces Homme-Machine (IHM) sont en pleine mutation : elles passent d’un mode de fonctionnement centralisé à un mode de fonction distribué, du sédentaire au nomade. Cette thèse traite l’infrastructure matérielle et logicielle pour la fusion et fission de l’IHM. En notant la similarité de l’adaptation de l’IHM et celle du contrôle adaptatif, elle propose de décloisonné ces deux domaines. Les travaux réalisés font ressortir les demandes d’estimation continûment le contexte d’usage et l’utilisabilité de l’IHM. Un prototype a été développé pour détecter les changements des ressources d’interaction. Un démonstrateur a été construit pour illustrer la fusion/fission de l’IHM pour des applications d’exploitation des informations. En utilisant un système de capteurs de proximité, l’IHM fournit vers utilisateur des nouvelles capacités comme : interaction dans les deux sens, accès aux services différents et adaptation de l’affichage pour gagner en utilisabilité
Nowadays, the User Interface (UI) Is changlng: it moves from centralization to distribution, from sedentary function mode to nomadic function mode. This thesis deals with the plastlcity of UI focuslng on the hardware and software infrastructure for fusion/fission of Human Computer Interface. Because of the similarity between the adaptation of the UI and the adaptation of the adaptive controls, this thesls proposes to combine these two areas. Our work revealed the requirements of the continuous estimation for context of use and for usability of UI. We have developed a system prototype capturing contexts to detect changes ln UI interaction resources. An application was developed as an Illustration of UI fusion/fission. Using the developed sensor system, the interactive system provides the user new capabilities such as (i) two-way interaction, (ii) accessing to the different services and (iii) adapting the UI
APA, Harvard, Vancouver, ISO, and other styles
17

Gascard, Eric. "Méthodes pour la vérification formelle de systèmes matériels et logiciels à architecture régulière." Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11047.

Full text
Abstract:
Le cadre de cette thèse est l'utilisation des méthodes formelles pour la spécification et la validation de systèmes matériels et logiciels. Nos travaux se sont concentrés sur la validation formelle de systèmes à architecture régulière et paramétrable, circuits combinatoires itératifs d'une part, et applications distribuées s'exécutant sur des réseaux d'interconnexion symétriques d'autre part. La première partie de cette thèse est consacrée à la vérification formelle automatique de circuits à structure répétitive régulière. Un modèle de fonctions récursives est utilisé, le processus de preuve mettant en jeu des techniques inductives permet un raisonnement générique sur la taille du circuit. Le résultat présenté ici est une heuristique de généralisation de théorèmes inductifs spécialisée pour les modèles fonctionnels considérés. Cette méthode permet de produire les théorèmes généralisés ainsi que certains lemmes intermédiaires et d'automatiser ainsi le processus de vérification. La seconde partie propose une méthode de modélisation et de validation de programmes distribués sur les réseaux d'interconnexion symétriques. Les preuves sont ici paramétrées sur l'ordre du réseau (nombre de processeurs). Le modèle formel choisi pour la représentation des réseaux dans l'environnement de démonstration automatique est basé sur le concept de graphe de Cayley. Notre méthode prend en compte les opérations de communications collectives (diffusion, distribution, réduction) utilisées par les applications distribuées. La modélisation et la méthode de preuve développées permettent entre autres de s'abstraire du problème des communications point à point, et de raisonner au niveau du processeur. De plus, elle permet d'obtenir automatiquement les invariants nécessaires au preuves.
APA, Harvard, Vancouver, ISO, and other styles
18

Atat, Youssef. "Conception de haut niveau des MPSoCs à partir d'une spécification Simulink : passerelle entre la conception au niveau système et la génération d'architecture." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0047.

Full text
Abstract:
La technologie de fabrication actuelle permet l’intégration d’un système multiprocesseur complexe sur une seule pièce de silicium (MPSoC pour Multiprocessor System-on-Chip). Une façon de maîtriser la complexité croissante de ces systèmes est d’augmenter le niveau d’abstraction et d’aborder la conception au niveau système. Cependant, l’augmentation du niveau d’abstraction peut engendrer un fossé entre les concepts au niveau système et ceux utilisés pour l’implémentation de l’architecture Matériel/Logiciel du MPSoC. L’objectif de cette thèse est de combler le gap entre les deux niveaux d’abstractions utilisés en proposant une passerelle efficace entre les outils d’aide au développement d’algorithmes (Matlab\Simulink) et les outils de conception des architectures (ROSES et macro-Cell builder). Ceci est accompli : - En définissant un modèle intermédiaire transactionnel dans l’environnement Simulink. Ce modèle intermédiaire combine l’algorithme et l’architecture. Il permet la définition précoce de la plateforme d’implémentation et établit une continuité entre le modèle fonctionnel et le modèle architectural. - En automatisant le passage entre le niveau système et le niveau architectural, dans le but d’accélérer la procédure de la conception des MPSoCs et de réduire la quantité des erreurs provoquées par le travail manuel dans un environnement unifié. La pertinence de ce travail a été évaluée par son application à la conception du décodeur MP3 présenté dans ce mémoire
The current fabrication technology allows the integration of a complex multiprocessor system on one silicon part (MPSoC for Multiprocessor System-one-Chip). A way to control the increasing complexity of these systems is to increase the abstraction level and to adopt the system level design. However, the increase of the abstraction level can make a huge gap between the system level concepts and those used for the hardware/software architecture implementation of MPSoC. The objective of this thesis is to fill the gap between the two abstractions levels by proposing an efficient bridge between the algorithms development aid tools (Matlab\Simulink) and the architectures design tools (ROSES and macro-Cell builder). This is accomplished: - By defining a transactional model in the Simulink environment. This intermediate model combines algorithm and architecture. It allows the early definition of the implementation platform and establishes continuity between the functional model and the architectural model. - By automating the passage between the system level and the architectural level, to accelerate the MPSoCs design procedure and to reduce the errors quantity caused by manual design in a unified environment. The relevance of this work was evaluated by its application to the MP3 decoder design presented in this memory
APA, Harvard, Vancouver, ISO, and other styles
19

Laurent, Johan. "Modélisation de fautes utilisant la description RTL de microarchitectures pour l’analyse de vulnérabilité conjointe matérielle-logicielle." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT061.

Full text
Abstract:
La sécurité numérique est aujourd’hui un enjeu majeur dans nos sociétés. Communications, énergie, transport, outils de production, Internet des Objets… Les systèmes numériques se multiplient et deviennent toujours plus critiques pour le bon fonctionnement du monde. Depuis un peu plus d’une vingtaine d’années, une nouvelle menace a émergé pour attaquer les systèmes : l’injection de faute. Elle consiste essentiellement à perturber un circuit pendant son fonctionnement, par diverses méthodes comme des perturbations sur l’alimentation du circuit, l’injection électromagnétique, ou l’injection laser ; afin de provoquer des erreurs. Ces erreurs peuvent ensuite être exploitées par un attaquant pour révéler des informations secrètes du circuit, ou passer outre des mesures de sécurité.La complexification des systèmes numériques et les avancées technologiques comme la finesse de gravure rendent particulièrement vulnérables les systèmes numériques face aux attaques par injection de fautes. Pour contrer ces attaques efficacement et à un coût raisonnable, il est nécessaire de penser la sécurité dès la phase de conception du système. Pour cela, il faut comprendre précisément l’impact de ces fautes sur les processeurs. Les effets induits peuvent être modélisés à différents niveaux d’abstraction. Actuellement, si l’impact des fautes est relativement bien connu au niveau matériel, leurs effets au niveau logiciel restent mal compris. Les analyses de vulnérabilité au niveau logiciel se basent donc sur des modèles de faute logiciels simples que sont par exemple le saut d’instruction, la corruption de registre ou l’inversion de test. Ces modèles sont appliqués sans réelle prise en compte de la microarchitecture du processeur attaqué. Cette non-considération de l’aspect matériel pose la question du réalisme des modèles logiciels, qui conduit à deux types de problèmes : certains effets modélisés ne correspondent pas à des vulnérabilités réelles ; et, à l’inverse, certains effets affaiblissant la sécurité ne sont pas modélisés. Ces difficultés se transposent ensuite dans des contremesures sur-dimensionnées, ou, plus grave, sous-dimensionnées.Pour lutter contre ces limitations des modèles de faute logiciels usuels, une étude précise de la microarchitecture des processeurs est requise. Dans cette thèse, nous explorons tout d’abord en quoi différentes structures du processeur, comme le pipeline ou les optimisations de forwarding et d’exécution spéculative, peuvent influer sur le comportement des fautes au sein du processeur et en quoi ces structures peuvent mettre à mal une vision purement logicielle de l’impact des fautes sur l’exécution d’un programme. Des injections au niveau RTL dans un processeur d’architecture RISC-V sont effectuées pour montrer que ces effets pourraient être exploités pour attaquer des contremesures logicielles typiques, ou encore une application de vérification de PIN sécurisée. Dans un deuxième temps est développée une méthode pour étudier plus généralement les effets des fautes dans un processeur. Cette méthode a un intérêt double. Le premier est la modélisation de fautes au niveau logiciel, avec notamment la définition de métriques d’évaluation des modèles. Le second est de conserver un lien avec le niveau RTL afin de pouvoir concrétiser les effets obtenus au niveau logiciel. Pour terminer cette thèse, nous étudions la possibilité d’utiliser des méthodes d’analyse statique pour analyser la sécurité de programmes face aux modèles de faute logiciels définis précédemment. Une analyse par interprétation abstraite et une analyse par exécution symbolique sont abordées.Cette thèse, financée par l’IRT Nanoelec pour le projet Pulse, a été réalisée au sein du laboratoire LCIS de Valence, en collaboration avec le CEA-Leti de Grenoble. Elle a été dirigée par Vincent Beroulle (LCIS) et co-encadrée par Christophe Deleuze (LCIS) et Florian Pebay-Peyroula (CEA-Leti)
Nowadays, digital security is of major importance to our societies. Communications, energy, transport, means of production, Internet of Things… The use of digital systems is ever increasing, making them critical to the correct working of our world. A little more than two decades ago, a new form of attack has risen: fault injection. Essentially, it consists in perturbing a circuit during computation, using various methods such as power glitches, electromagnetic injection or laser injection; in the aim of generating errors. These errors can then be exploited by an attacker to reveal secret information from the circuit, or to bypass some security measures.System complexification and technological advances make digital systems particularly vulnerable against fault injection attacks. In order to thwart these attacks effectively and at a reasonable cost, it is necessary to consider security from the early phases of the design flow. To do that, a better understanding of how faults impact processors is required. Effects provoked by fault injection can be modeled at various levels of abstraction. Currently, if the impact of faults at the hardware level is relatively well known, the same cannot be said for the software level. Security analyses at the software level are based on simple software fault models such as instruction skip, register corruption or test inversion. These models are applied without any serious consideration for the microarchitecture of the attacked processor. This brings the question of the realism of these models, leading to two types of problems: some modeled effects do not correspond to actual attacks; and, conversely, some effects lowering the security of the system are not modeled. These issues then translate to over-engineered, or, worse, under-engineered countermeasures.To face the limitations of typical software fault models, a precise study of processor microarchitectures is necessary. In this thesis, we first explore how various structures of the processor, such as the pipeline or optimization structures like forwarding and speculative execution, can influence the behavior of faults in the inner working of the processor; and how they call into question a pure software vision of how faults impact software execution. RTL injections are conducted in a RISC-V processor, to demonstrate how these effects could be exploited to counter typical software countermeasures and a hardened program that check PIN codes. Then, a method to study more generally the effects of faults in a processor is developed. The point of this method is twofold. The first is about modeling faults at the software level, with the definition of several metrics to evaluate models. The second point is about keeping a link to the RTL level, in order to be able to materialize effects obtained at the software level. Finally, to end this thesis, we study the possibility to use static analysis to analyze the security of programs against software fault models defined previously. Two methods are considered, one using abstract interpretation, and the other using symbolic execution.This thesis, financed by the IRT Nanoelec for the Pulse project, has been conducted within the LCIS laboratory in Valence, in collaboration with the CEA-Leti in Grenoble. It has been supervised by Vincent Beroulle (LCIS), and co-supervised by Christophe Deleuze (LCIS) and Florian Pebay-Peyroula (CEA-Leti)
APA, Harvard, Vancouver, ISO, and other styles
20

Duc, Guillaume. "Support matériel, logiciel et cryptographique pour une éxécution sécurisée de processus." Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0041.

Full text
Abstract:
La majorité des solutions apportées aux problèmes de sécurité informatique (algorithmes, protocoles, systèmes d'exploitation sécurisés, applications) s'exécute sur des architectures matérielles non sécurisées et pouvant donc être vulnérables à des attaques physiques (espionnage du bus, modification de la mémoire, etc. ) ou logicielles (système d'exploitation corrompu). Des architectures sécurisées, permettant de garantir la confidentialité et la bonne exécution de programmes contre de telles attaques, sont proposées depuis quelques années. Après avoir présenté quelques bases cryptographiques ainsi qu'un comparatif des principales architectures sécurisées proposées dans la littérature, nous présenterons l'architecture sécurisée CryptoPage. Cette architecture garantit la confidentialité du code et des données des applications ainsi que leur bonne exécution contre des attaques matérielles et logicielles. Elle inclut également un mécanisme permettant de réduire les fuites d'informations via le bus d'adresse, tout en conservant des performances raisonnables. Nous étudierons également comment déléguer certaines opérations de sécurité de l'architecture CryptoPage à un système d'exploitation qui n'est pas digne de confiance, afin de permettre plus de flexibilité, sans pour autant compromettre la sécurité de l'ensemble. Enfin, d'autres mécanismes importants pour le bon fonctionnement de l'architecture CryptoPage sont traités : identification des processus chiffrés, attestation des résultats, gestion des signaux logiciels, gestion des processus légers, gestion des communications inter-processus
The majority of the solutions to the issue of computer security (algorithms, protocols, secure operating systems, applications) are running on insecure hardware architectures that may be vulnerable to physical (bus spying, modification of the memory content, etc. ) or logical (malicious operating system) attacks. Several secure architectures, which are able to protect the confidentiality and the correct execution of programs against such attacks, have been proposed for several years. After the presentation of some cryptographic bases and a review of the main secure architectures proposed in the litterature, we will present the secure architecture CryptoPage. This architecture guarantees the confidentiality of the code and the data of applications and the correct execution against hardware or software attacks. In addition, it also includes a mechanism to reduce the information leakage on the address bus, while keeping reasonable performances. We will also study how to delegate some security operations of the architecture to an untrusted operating system in order to get more flexibility but without compromising the security of thearchitecture. Finally, some other important mechanism are studied: encrypted processid entification, attestations of the results, management of software signals, management of the threads, inter-process communication
APA, Harvard, Vancouver, ISO, and other styles
21

Combier, Jessica. "Conception et développement de composants logiciels et matériels pour un dispositif ophtalmique." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30014.

Full text
Abstract:
Les recherches menées au cours de cette thèse de Doctorat s'inscrivent dans les activités du laboratoire commun OPERA (OPtique EmbaRquée Active) impliquant ESSILOR-LUXOTTICA et le CNRS. L’objectif est de contribuer au développement des “lunettes du futur” intégrant des fonctions d'obscurcissement, de focalisation ou d'affichage qui s’adaptent en permanence à la scène et au regard de l’utilisateur. Ces nouveaux dispositifs devront être dotés de capacités de perception, de décision et d’action, et devront respecter des contraintes d'encombrement, de poids, de consommation énergétique et de temps de traitement. Ils présentent par conséquent des connexions évidentes avec la robotique. Dans ce contexte, les recherches ont consisté à investiguer la structure et la construction de tels systèmes afin d’identifier leurs enjeux et difficultés. Pour ce faire, la première tâche a été de mettre en place des émulateurs de divers types de lunettes actives, qui permettent de prototyper et d’évaluer efficacement diverses fonctions. Dans cette phase de prototypage et de test, ces émulateurs s’appuient naturellement sur une architecture logicielle modulaire typique de la robotique. La seconde partie de la thèse s'est focalisée sur le prototypage d’un composant clé des lunettes du futur, qui implique une contrainte supplémentaire de basse consommation : le système de suivi du regard, aussi appelé oculomètre. Le principe d’un assemblage de photodiodes et d’un traitement par réseau de neurones a été proposé. Un simulateur a été mis au point, ainsi qu’une étude de l'influence de l'agencement des photodiodes et de l’hyper-paramétrisation du réseau sur les performances de l'oculomètre
The research carried out during this doctoral thesis takes place within the OPERA joint laboratory (OPtique EmbaRquée Active) involving ESSILOR-LUXOTTICA and the CNRS. The aim is to contribute to the development of "glasses of the future", which feature obscuration, focus or display capabilities that continuously adapt to the scene and the user gaze. These new devices will be endowed with perception, decision and action capabilities, and will have to respect constraints of space, weight, energy consumption and processing time. They therefore show obvious connections with robotics. In this context, the structure and building of such systems has been investigated in order to identify their issues and difficulties. To that end, the first task was to set up emulators of various types of active glasses, which enable the prototyping and effective testing of various functions. In this prototyping and testing phase, these emulators naturally rely on a modular software architecture typical of robotics. The second part of the thesis focused on the prototyping of a key component which implies an additional constraint on low consumption, namely the eye tracking system, also known as gaze tracker. The principle of a photodiode assembly and of a neural network processing has been proposed. A simulator has been developed, as well as a study of the influence of the arrangement of photodiodes and the hyper-parametrization of the network on the performance of the oculometer
APA, Harvard, Vancouver, ISO, and other styles
22

Alvares, De Oliveira Junior Frederico. "Gestion multi autonome pour l'optimisation de la consommation énergétique sur les infrastructures en nuage." Phd thesis, Université de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-00853575.

Full text
Abstract:
Conséquence directe de la popularité croissante des services informatique en nuage, les centres de données se développent à une vitesse vertigineuse et doivent rapidement faire face à des problèmes de consommation d'énergie. Paradoxalement, l'informatique en nuage permet aux infrastructure et applications de s'ajuster dynamiquement afin de rendre l'infrastructure plus efficace en termes d'énergie et les applications plus conformes en termes de qualité de service (QdS). Toutefois, les décisions d'optimisation prises isolément à un certain niveau peuvent indirectement interférer avec (voire neutraliser) les décisions prises à un autre niveau, par exemple, une application demande plus de ressources pour garder sa QdS alors qu'une partie de l'infrastructure est en cours d'arrêt pour des raisons énergétiques. Par conséquent, il devient nécessaire non seulement d'établir une synergie entre les couches du nuage, mais aussi de rendre ces couches suffisamment souples et sensibles pour être en mesure de réagir aux changements d'exécution et ainsi profiter pleinement de cette synergie. Cette thèse propose une approche d'auto-adaptation qui prend en considération les composants applicatifs (élasticité architecturale) ainsi que d'infrastructure (élasticité des ressources) pour réduire l'empreinte énergétique. Chaque application et l'infrastructure sont équipées d'une boucle de contrôle autonome qui leur permet d'optimiser indépendamment leur fonctionnement. Afin de créer une synergie entre boucles de contrôle autour d'un objectif commun, nous proposons un modèle pour la coordination et la synchronisation de plusieurs boucles de contrôle. L'approche est validée expérimentalement à la fois qualitativement (amélioration de QdS et des gains d'énergie) et quantitativement (passage à l'échelle).
APA, Harvard, Vancouver, ISO, and other styles
23

Laporte, Hervé. "Etude logicielle et matérielle d'un système de visualisation temps-réel basé sur la quadrique." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-156.pdf.

Full text
Abstract:
Cette these s'inscrit dans le cadre des recherches menees au lifl sur l'utilisation de la quadrique comme primitive de visualisation temps reel. Apres avoir montre les limites de la facette comme primitive de visualisation et l'interet de la remplacer par la quadrique, notre premier travail est de definir exactement une primitive de visualisation pour notre systeme. En effet la quadrique seule n'est pas particulierement pratique a manipuler. Notamment certaines quadriques sont des surfaces infinies comme par exemple le cylindre. Nous definissons donc un objet de base constitue d'une quadrique et de plusieurs plans qui servent a la fois a limiter la quadrique et a la sculpter. Ensuite nous adaptons tous les algorithmes de rendu de base a la quadrique. Pour l'execution de l'algorithme de z-buffer nous calculons les profondeurs de notre objet de base. Pour l'eclairement, nous calculons la normale exacte en tout point. Cette normale est ensuite utilisee dans un post-processeur de calcul d'eclairement selon le modele propose par phong. L'etape suivante consiste a proposer des algorithmes d'amelioration de la qualite. Nous nous attachons a trouver des solutions pour l'anti-aliassage et le placage de texture. Un logiciel de validation des algorithmes a ete developpe qui a servi egalement pour simuler au niveau fonctionnel l'implementation materielle. Cette derniere permet une bonne evaluation de la complexite d'un processeur quadrique, seul moyen pour esperer des performances temps reel. Nous concluons qu'un accelerateur graphique base sur la quadrique offrirait des performances temps reel correcte pour un cout acceptable.
APA, Harvard, Vancouver, ISO, and other styles
24

Polakovic, Juraj. "Architecture logicielle et outils pour systèmes d'exploitation reconfigurables." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0051.

Full text
Abstract:
La reconfiguration dynamique est la capacité d'un système logiciel à permettre sa modification pendant son exécution et peut être utilisée pour mettre-à-jour une partie fautive du système, introduire des algorithmes spécialisés, autoriser des extensions faites par des tiers, adapter le système à un nouvel environment et ajouter des sondes de monitoring ou debugging, etc. Les systèmes d'exploitation existants offrent des mécanismes de reconfiguration dynamique, néanmoins ceux-ci sont figés par l'implémentation du système. Par conséquent le compromis entre la flexibilité et l'efficacité du système reconfigurable est fixe et il n'est pas possible de réutiliser le système dans d'autres contextes opérationnels (avec des mécanismes de reconfiguration différents). Nous présentons une approche architecturale pour la construction de systèmes reconfigurables à la carte et la programmation de leurs reconfigurations. Notre modèle de programmation est basé sur le modèle à composants Fractal et son implémentation en C, appelée Think. Le canevas associé au modèle comprend un compilateur d'architecture qui permet de construire des systèmes reconfigurables et un compilateur de reconfigurations. Pour illustrer notre approche, nous avons réalisé plusieurs prototypes de systèmes reconfigurables qui ont permis de montrer la flexibilité de notre approche ainsi qu’une évaluation quantitative et l’impact des différentes implémentations de reconfiguration dynamique sur l’efficacité d’un système concret
Dynamic reconfiguration allows modifying a system during its execution. Dynamic reconfiguration is important in embedded systems, where one does not necessarily have the luxury to stop a running system. While some operating systems do offer mechanisms for dynamic reconfiguration, the proposed mechanisms are essentially hardwired in the system. This results in a fixed trade-off between flexibility of reconfigurations and the system's efficiency which may be far from optical in certain operational contexts, thus limiting the system reuse. We present an architecture-based programming model allowing both construction of customized reconfigurable system kernels and programming of their reconfigurations. This model is based on the Fractal component model and its C implementation, called Think. The framework supporting our approach encompasses an architecture compiler for building customized system kernels and a reconfiguration compiler
APA, Harvard, Vancouver, ISO, and other styles
25

Gailliard, Gregory. "Vers une approche commune pour le logiciel et le matériel de spécification et d'implémentation de systèmes embarqués temps-réels distribués, basée sur les intergiciels et les composants orientés objet." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00524737.

Full text
Abstract:
Cette thèse s'intéresse à la déclinaison matérielle des concepts logiciels d'intergiciel et d'architecture logicielle à base de composants, conteneurs et connecteurs dans les réseaux de portes programmables in situ (Field-Programmable Gate Array - FPGA). Le domaine d'applications ciblé est la radio définie logiciellement (Software Defined Radio (SDR)) conforme au standard Software Communications Architecture) (SCA). Avec le SCA, les applications radio sont décomposées en composants fonctionnels, qui sont déployés sur des plateformes radios hétérogènes et distribuées. Ces composants fournissent et requièrent des interfaces logicielles abstraites décrites sous forme de signatures d'opérations dans le langage de modélisation unifié appelé Unified Modeling language (UML) et/ou le langage de définition d'interface (Interface Definition Language - IDL) de l'intergiciel CORBA (Common Object Request Broker Architecture) standardisé par un consortium industriel appelé Object Management Group (OMG). Les besoins de portabilité et de réutilisation de ces composants requièrent que leurs interfaces abstraites définies au niveau système soient indépendantes d'une implémentation logicielle ou matérielle et puissent être indifféremment traduites dans un langage de programmation logiciel tel que C/C++, un langage système tel que SystemC au niveau transaction (Transaction Level Modeling - TLM), ou un langage de description matériel tel que VHDL ou SystemC au niveau registre (Register Transfer Level - (RTL)). Le besoin d'interopérabilité de ces composants requière des communications transparentes quelques soient leur implémentation logicielle ou matérielle et leur distribution. Ces premiers besoins ont été adressés en formalisant des règles de mise en correspondance entre des composants abstraits en OMG IDL3 ou UML2, des composants matériels à base de signaux en VHDL ou SystemC RTL, et des composants systèmes en SystemC TLM. Le deuxième besoin a été adressé en prototypant un intergiciel matériel utilisant de façon transparente le mapping mémoire et deux protocoles messages: CORBA General Inter-Object Request Broker Protocol (GIOP) et SCA Modem Hardware Abstraction Layer (MHAL).
APA, Harvard, Vancouver, ISO, and other styles
26

Fantini, Jacques. "Contribution à l'élaboration de systèmes informatiques parallèles matériels et logiciels pour le domaine de l'automatique." Nancy 1, 1991. http://www.theses.fr/1991NAN10185.

Full text
Abstract:
Ce mémoire est consacre à la conception d'architectures matérielles parallèles à base de processeurs arithmétiques rapides, ainsi qu'à l'élaboration de modèles logiciels pour l'exploitation de ces systèmes et leur programmation en environnement parallèle. Dans la première partie, l'étude et la synthèse des architectures parallèles, des composants de base et des mécanismes de communication précèdent la définition des caractéristiques de la machine réalisée. Ce système est composé d'un module processeur arithmétique rapide connecte sur le bus d'un micro-ordinateur par l'intermédiaire de deux plans mémoires à double accès. L'interconnexion de plusieurs modules définit l'architecture parallèle multi-DSPS, chacun d'eux pouvant communiquer via le bus commun et un réseau d'aiguillages configurable. La deuxième partie est consacrée aux développements logiciels et est dirigée selon deux axes, l'élaboration d'un modèle de programmation pour la machine multi-DSPS afin de repartir l'ensemble des taches sur les modules, et d'un outil d'aide à la parallelisation automatique. Ce dernier analyse un programme source algorithmique séquentiel et restitue une version source parallélisée, à parallélisme maximal ou structurel. La méthode de calcul des dépendances mise en œuvre est l'analyse syntaxique puis la construction d'une matrice de dépendances
APA, Harvard, Vancouver, ISO, and other styles
27

Tchidjo, Moyo Noël. "Architecture logicielle et méthodologie de conception embarquée sous contraintes temps réel pour la radio logicielle." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00603708.

Full text
Abstract:
Cette étude répond au problème d'ordonnancement temps réel de composants logiciels s'exécutant sur un processeur de traitement du signal dans un contexte de radio logicielle. Elle vise ainsi à compléter l'offre en termes d'outillage de conception radio logicielle. Dans la pratique actuelle, l'ordonnancement temps réel des applications de traitement du signal flexibles s'exécutant sur un processeur donné, est effectué de manière manuelle, en utilisant des méthodes empiriques, et en prenant des marges non négligeables. Etant donnée l'augmentation pressentie du nombre de composants logiciels de la couche physique s'exécutant simultanément sur un même processeur dans les futures radios logicielles, ces méthodes seront sujettes à erreur, feront perdre beaucoup de temps et ne trouveront pas nécessairement de solutions d'ordonnancement valides même lorsqu'il en existera une. Pour cela, cette thèse définit un nouveau modèle de tâche représentant plus précisément le comportement des tâches dans certains contextes de radio logicielle : le modèle GMF (Generalized Multi-Frame) non cyclique. Pour ce modèle, nous présentons une formulation du calcul du temps de réponse des tâches, ainsi qu'un nouveau test de faisabilité suffisant pour des tâches s'exécutant sur un processeur avec la politique d'ordonnancement " Earliest Deadline First " (EDF). Nous fournissons aussi pour ce modèle de tâche un algorithme efficace, permettant la détermination exacte de la faisabilité temps réel. Nous présentons dans cette thèse un nouveau flot de conception IDM (Ingénierie Dirigée par les Modèles), permettant de spécifier les paramètres rendant possibles une analyse d'ordonnançabilité temps réel des composants logiciels s'exécutant sur un processeur dans une radio logicielle. Cette thèse propose des méthodes pour calculer les contraintes temporelles dans une radio logicielle. Elle présente les éléments du standard MARTE à utiliser pour renseigner les contraintes dans le modèle ainsi que les règles de transformations de modèles qui permettent d'obtenir un modèle exploitable par un outil d'analyse d'ordonnançabilité temps réel. Cette thèse présente une approche, implantée sous forme d'un outil de simulation, effectuant l'analyse d'ordonnancement temps réel des tâches de traitement du signal flexibles s'exécutant sur un processeur suivant une politique d'ordonnancement hybride. Cet outil est intégré au flot IDM proposé.
APA, Harvard, Vancouver, ISO, and other styles
28

Tchidjo, Moyo Noël Bertrand. "Architecture logicielle et méthodologie de conception embarquée sous contraintes temps réel pour la radio logicielle." Rennes 1, 2011. https://tel.archives-ouvertes.fr/tel-00603708.

Full text
Abstract:
Cette étude répond au problème d’ordonnancement temps réel de composants logiciels s’exécutant sur un processeur de traitement du signal dans un contexte de radio logicielle. Elle vise ainsi à compléter l’offre en termes d’outillage de conception radio logicielle. Dans la pratique actuelle, l’ordonnancement temps réel des applications de traitement du signal flexibles s’exécutant sur un processeur donné, est effectué de manière manuelle, en utilisant des méthodes empiriques, et en prenant des marges non négligeables. Etant donnée l’augmentation pressentie du nombre de composants logiciels de la couche physique s’exécutant simultanément sur un même processeur dans les futures radios logicielles, ces méthodes seront sujettes à erreur, feront perdre beaucoup de temps et ne trouveront pas nécessairement de solutions d’ordonnancement valides même lorsqu’il en existera une. Pour cela, cette thèse définit un nouveau modèle de tâche représentant plus précisément le comportement des tâches dans certains contextes de radio logicielle : le modèle GMF (Generalized Multi-Frame) non cyclique. Pour ce modèle, nous présentons une formulation du calcul du temps de réponse des tâches, ainsi qu’un nouveau test de faisabilité suffisant pour des tâches s’exécutant sur un processeur avec la politique d’ordonnancement « Earliest Deadline First » (EDF). Nous fournissons aussi pour ce modèle de tâche un algorithme efficace, permettant la détermination exacte de la faisabilité temps réel. Nous présentons dans cette thèse un nouveau flot de conception IDM (Ingénierie Dirigée par les Modèles), permettant de spécifier les paramètres rendant possibles une analyse d’ordonnançabilité temps réel des composants logiciels s’exécutant sur un processeur dans une radio logicielle. Cette thèse propose des méthodes pour calculer les contraintes temporelles dans une radio logicielle. Elle présente les éléments du standard MARTE à utiliser pour renseigner les contraintes dans le modèle ainsi que les règles de transformations de modèles qui permettent d’obtenir un modèle exploitable par un outil d’analyse d’ordonnançabilité temps réel. Cette thèse présente une approche, implantée sous forme d’un outil de simulation, effectuant l’analyse d’ordonnancement temps réel des tâches de traitement du signal flexibles s’exécutant sur un processeur suivant une politique d’ordonnancement hybride. Cet outil est intégré au flot IDM proposé
This study addresses the problem of real-time scheduling of software components executing in a digital signal processor in a software radio context. It aims at providing new tooling for software radio design. Real-time scheduling analysis of flexible signal processing applications executing in a processor is currently done manually, using ad hoc methods, and taking significant margins. Given the foreseen increase of software components of the physical layer executing simultaneously on a processor in future software radios, these methods for scheduling analysis will be error-prone, time consuming and will often fail to find a feasible schedule even when one exists. For that purpose, this thesis defines a new task model which represents more precisely the behaviour of the tasks in certain software radio context: the non-cylic GMF (Generalized Multi-Frame) model. For this model, we present a formula to compute response time of tasks, as well as a new sufficient feasibility test for tasks executing in a processor according to the “Earliest Deadline First” scheduling policy. We also provide for this task model an efficient algorithm, for exact feasibility determination. We present in this thesis a new MDE (Model Driven Engineering) design methodology, to specify the parameters which make possible a real-time scheduling analysis of software components executing in a processor. This thesis proposes methods to compute real-time constraints in a software radio. It presents the elements of the MARTE standard to be used, to note the constraints in the model as well as model transformation rules to obtain a suitable model for real-time scheduling analysis. This thesis presents an approach, implemented as a simulation tool, to realize real-time scheduling analysis of tasks implementing flexible signal processing algorithms in a processor and scheduled according to a hybrid scheduling policy. This tool is integrated into the proposed MDE design methodology
APA, Harvard, Vancouver, ISO, and other styles
29

Huck, Emmanuel. "Simulation de haut niveau de systèmes d'exploitations distribués pour l'exploration matérielle et logicielle d'architectures multi-noeuds hétérogènes." Phd thesis, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00781961.

Full text
Abstract:
Concevoir un système embarqué implique de trouver un compromis algorithme/architecture en fonction des contraintes temps-réel. Thèse : pour concevoir un MPSoC et plus particulièrement avec les circuits reconfigurables modifiant le support d'exécution en cours de fonctionnement, la nécessaire validation des comportements fluctuants d'un système réactif impose une évaluation préalable que l'on peut réaliser par simulation (de haut niveau) tout en permettant l'exploration de l'espace de conception architectural, matériel mais aussi logiciel, au plus tôt dans le flot de conception. Le point de vue du gestionnaire de la plateforme est adopté pour explorer à haut niveau les réactions du système aux choix de partitionnement impactés par l'algorithmique des services du système d'exploitation et leurs implémentations possibles. Pour cela un modèle modulaire de services d'OS simule fonctionnellement et conjointement en SystemC le matériel, les tâches logicielles et le système d'exploitation, répartis sur plusieurs noeuds d'exécution hétérogènes communicants. Ce modèle a permis d'évaluer l'architecture temps-réel idéale d'une application dynamique de vision robotique conjointement à l'exploration des services de gestion d'une zone reconfigurable modélisée. Ce modèle d'OS a aussi été intégré dans un simulateur de MPSoC hétérogène d'une puissance estimé à un Tera opérations par seconde.
APA, Harvard, Vancouver, ISO, and other styles
30

Wang, Peichang. "Tolérance aux fautes par reconfiguration logicielle et matérielle dans le système de commande numérique d'une machine électrique." Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1990INPL008N.

Full text
Abstract:
Le travail a été réalisé au Cran (ENSEM) dans l'équipe de recherche méthodologie de conception et sûreté de fonctionnement des systèmes de commande. Dans une première partie, les travaux antérieurs de l'équipe sont rappelés : élaboration d'une méthode de conception des systèmes de commande pour les processus rapides que sont les convertisseurs électromécaniques (association d'électronique de puissance et de machines électriques). Cette méthode en 3 étapes fait largement appel aux réseaux de Petri interprétés et montre l'intérêt d'intégrer dès le début de la conception les problèmes de sûreté de fonctionnement. La situation du projet sur lequel l'auteur a travaillé est également présentée : un multiprocesseur rapide dédié à la commande des machines électriques. Dans la seconde partie, l'étude et la réalisation partielle permettant la démonstration de faisabilité, du système de commande tolérant ses fautes par reconfiguration est présentée. Cette étude a été menée en suivant scrupuleusement la méthode proposée. Elle met en évidence les problèmes à résoudre pour reconfigurer la commande tant logicielle que matérielle : détection des erreurs dans les processeurs par diagnostic interne ou par validation des échanges d'informations, isolement du processeur défaillant, reprise de la commande en performances dégradées par des algorithmes simplifiés, problèmes de l'initialisation de ces algorithmes, problème de la sûreté du système gérant la reconfiguration. L'intérêt de cette solution est d'obtenir une bonne sûreté de fonctionnement Sna s’introduire une redondance massive dans le système de commande. La partie expérimentale a été menée à terme avec un pont de Graetz réversible alimentant un moteur à courant continu, et des résultats intéressants ont été obtenus par simulation d'erreurs dans le système de commande
APA, Harvard, Vancouver, ISO, and other styles
31

Wang, Yewan. "Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0175.

Full text
Abstract:
Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs
For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate / design the current / future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature, cooling system configurations and server load
APA, Harvard, Vancouver, ISO, and other styles
32

Sanlaville, Rémy. "Architecture logicielle : une expérimentation industrielle avec Dassault Systèmes." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00004589.

Full text
Abstract:
L'architecture logicielle est un domaine récent du génie logiciel qui a reçu une attention particulière ces dix dernières années. Les éditeurs de logiciels ont pris conscience qu'une architecture est un facteur critique dans la réussite du développement et facilite la maintenance et l'évolution du logiciel. Elle contribue à la maîtrise des grands logiciels. L'architecture logicielle permet d'améliorer ces aspects grâce à l'étude des structures de haut niveau du logiciel. De nombreuses avancées ont été proposées au niveau de la formalisation par des Langages de Description d'Architecture (ADLs: Architecture Description Languages), du raisonnement et de l'analyse au niveau architectural. Bien que la communauté scientifique ait réalisé des progrès significatifs, les résultats restent essentiellement académiques. Les retombées de ces recherches ont du mal à pénétrer le milieu industriel. Ce rapport de thèse relate notre expérience avec Dassault Systèmes : répondre aux besoins de Dassault Systèmes pour le développement de ses logiciels en utilisant une approche basée sur l'architecture logicielle. Dassault Systèmes est le leader mondial de la Conception Assistée par Ordinateur (CAO) avec son logiciel phare CATIA V5 (~5 MLoc). Pour atteindre cet objectif, nous avons parcouru les principales approches pour la description d'une architecture logicielle et tenté de les appliquer dans notre contexte industriel. Nous expliquerons les difficultés que nous avons rencontrées pour les utiliser et montrerons pourquoi ces approches ne sont pas adaptées pour la maintenance et l'évolution d'un logiciel tel que CATIA V5. Nous décrirons notre démarche basée sur l'analyse des besoins architecturaux des différents acteurs de Dassault Systèmes qui a permis de fournir des solutions concrètes et exploitables. Enfin, nous expliciterons ces besoins architecturaux et présenterons les divers prototypes que nous avons développés pour y répondre.
APA, Harvard, Vancouver, ISO, and other styles
33

Blanch, Renaud. "Architecture logicielle et outils pour les interfaces hommes-machines graphiques avancées." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00011282.

Full text
Abstract:
Dans cette thèse nous proposons une approche et des outils pour faciliter la mise au point et l'utilisation de techniques d'interaction avancées au sein d'applications graphiques interactives. Nous proposons de résoudre les exigences antithétiques de la réutilisation, nécessaire à la factorisation des efforts, et de l'innovation, nécessaire à l'adaptation à de nouveaux contextes, en fournissant une pyramide d'abstractions de divers niveaux permettant leur recombinaison pour s'adapter finement aux besoins spécifiques à chaque usage. Nous proposons également d'intégrer aux langages impératifs une structure de contrôle basée sur un formalisme de machines à états hiérarchiques pour faciliter la programmation de comportements dynamiques et faire des interactions des objets à part entière du vocabulaire des programmeurs.

Nous montrons par des exemples comme ces éléments permettent la reproduction de l'état de l'art des interactions, tant standards qu'avancées, et la mise au point de techniques d'interaction originales et performantes. Nous présentons en particulier la réalisation d'applications graphiques interactives utilisant une architecture distribuée permettant de localiser l'interaction sur le système local et de reporter le noyau fonctionnel sur une machine distante. Nous présentons enfin une technique d'interaction avancée, le pointage sémantique, qui facilite la tâche élémentaire de sélection par pointage en permettant d'utiliser deux tailles pour les objets de l'interface, l'une choisie en fonction des informations qu'ils présentent, l'autre en fonction de leur importance pour la manipulation.
APA, Harvard, Vancouver, ISO, and other styles
34

Barais, Olivier. "Construire et maîtriser l'évolution d'une architecture logicielle à base de composants." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/1495c084-3273-41d6-aea6-c5343a3d2120.

Full text
Abstract:
Dans une industrie du logiciel où la complexité des applications ne cesse de croître, un des objectifs du génie logiciel est de conserver l'intelligibilité du processus de construction et de maintenance de ces applications. Dans ce cadre, le concept de composant a été introduit comme une extension du concept d'objet pour faciliter la conception d'applications réparties complexes, c'est-à-dire formées de nombreux éléments en coopération, distribuées sur différents sites d'exploitation, et de nombreuses contraintes qui expriment des exigences variées (persistance, sécurité, tolérance aux pannes, etc. ). Il existe à ce jour de nombreux modèles de composants avec des objectifs différents. Cependant, un des points communs de ces modèles est la mise en lumière de l'architecture de l'application, c'est-à-dire une description de haut niveau de cette application décomposée en différents composants interconnectés et définis par leurs fonctionnalités requises et offertes. De par la complexité de certaines applications, la définition de l'architecture est elle-même une opération délicate et très propice aux erreurs. L'objectif de cette thèse vise à améliorer la maîtrise de la complexité de la construction de l'architecture d'une application définie par assemblage de composants. Nous proposons pour cela un modèle de composant abstrait, nommé SafArchie, qui permet d'assister l'architecte dans la construction d'une architecture logicielle cohérente. Ainsi, dans SafArchie, l'interface des différents composants d'une architecture est spécifiée à l'aide de contrats. Ces contrats permettent de définir la structure du composant, mais aussi son comportement vis-à-vis de son environnement. A partir de ces différentes informations et de la définition de l'assemblage de composants, nous proposons une notion de compatibilité entre composants interconnectés. Cette compatibilité permet de déterminer la cohérence de l'architecture
Un deuxième axe de la thèse part du constat qu'il est difficile de construire un assemblage de composants qui adresse l'ensemble des préoccupations d'une application en une seule étape. L'idéal est alors de proposer une démarche de construction incrémentale où l'architecte peut à chaque étape ajouter une nouvelle préoccupation à son architecture. Malheureusement, les modèles de composants ne proposent en générale qu'une unique dimension de structuration d'une application, SafArchie n'échappe pas à cette règle. Dès lors, certaines préoccupations comme la sécurité, la persistance ou la traçabilité ne peuvent être correctement structurées au sein d'un seul composant et se retrouvent alors noyées au sein de nombreux éléments de l'architecture. Cette mauvaise structuration est très préjudiciable pour l'intégration de ces préoccupations dans une architecture existante. Nous proposons donc, dans une deuxième partie de cette thèse, un canevas de conception d'architecture nommé TranSAT qui permet l'intégration de nouvelles préoccupations dans une architecture par transformation de cette dernière. Ce canevas introduit la notion de patron d'architecture pour structurer les différentes préoccupations transverses d'une application. Ce patron comprend les éléments d'architecture à intégrer, les transformations à apporter sur l'architecture de base, mais aussi un ensemble de contraintes génériques sur les éléments d'une architecture cible sur laquelle le patron peut être intégré. De plus, TranSAT propose un langage dédié pour spécifier les modifications à apporter sur l'architecture de base afin d'intégrer la nouvelle préoccupation. Ce langage est concis et expressif, sa spécialisation permet de produire différentes analyses statiques afin de garantir la cohérence de l'architecture résultante sans analyser la totalité de cette architecture
APA, Harvard, Vancouver, ISO, and other styles
35

Merzouk, Slimane. "Architecture logicielle et algorithmes pour la résolution de l'équation de radiance." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL068N.

Full text
Abstract:
Les méthodes utilisées pour résoudre l'équation de radiance sont fondées aujourd'hui sur des approximations qui permettent de rendre le problème calculable. Dans les approches développées à ce jour, on distingue les méthodes d'échantillonnage et les méthodes variationnelles. Notre travail se situe dans le cadre de cette dernière approche, et apporte des contributions à deux niveaux : au niveau théorique. Dans les solutions actuelles, les hypothèses physiques sont actuellement restrictives au niveau de la composition spectrale de la lumière. Pour remédier à ce problème nous proposons un algorithme permettant de traiter des distributions continues et discontinues. Au niveau pratique nous croyons qu'une meilleure connaissance des problèmes liés à l'implantation des algorithmes qui concourent à la résolution de l'équation de radiance est utile. Nous avons pour cela construit une architecture logicielle permettant d'implanter les algorithmes et les structures de données nécessaires à cette résolution. L’originalité de la conception de cette architecture, que nous avons souhaité la plus flexible et évolutive possible constitue une contribution majeure de cette thèse. Nous montrons en particulier comment des solutions intégrant des fonctions physiques plus complexes (general reflectance function), des options différentes (discontinuity meshing, importance error-driven), ou des techniques de calcul par raffinement plus élaborées (clustering) peuvent être intégrées à notre architecture, en réutilisant une grande partie du code, et en conservant une bonne stabilité et de bonnes performances.
APA, Harvard, Vancouver, ISO, and other styles
36

Cuccuru, Arnaud. "Modélisation unifiée des aspects répétitifs dans la conception conjointe logicielle/matérielle des systèmes sur puce à hautes performances." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/355fcdef-0c0f-4da4-b573-f54b41045ff4.

Full text
Abstract:
Des contrôleurs embarqués d'autrefois aux systèmes sur puce multiprocesseurs actuels, il existe un saut de complexité que les outils d'aide à la conception n'arrivent pas à franchir. Les concepteurs ne disposent pas d'outil leur permettant d'exploiter à un coût raisonnable les transistors potentiellement mis à leur disposition. Pour tenter de résoudre ce problème, le flot de conception Gaspard propose des solutions originales: une approche orientée modèle pour gérer la complexité du flot, et une orientation vers les systèmes multiprocesseurs réguliers Intégrée dans ce flot, cette thèse propose une contribution à deux niveaux: définition d'une syntaxe abstraite sous forme de métamodèles exprimés en MOF (infrastructure pour la mise en œuvre du flot), et définition d'une syntaxe concrète sous la forme d'un profil UML. L'objectif principal est de définir des mécanismes communs pour exprimer la régularité et le parallélisme des systèmes, tant au niveau applicatif qu'au niveau matériel.
APA, Harvard, Vancouver, ISO, and other styles
37

Aubry, Willy. "Etude et mise en place d’une plateforme d’adaptation multiservice embarquée pour la gestion de flux multimédia à différents niveaux logiciels et matériels." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14678/document.

Full text
Abstract:
Les avancées technologiques ont permis la commercialisation à grande échelle de terminaux mobiles. De ce fait, l’homme est de plus en plus connecté et partout. Ce nombre grandissant d’usagers du réseau ainsi que la forte croissance du contenu disponible, aussi bien d’un point de vue quantitatif que qualitatif saturent les réseaux et l’augmentation des moyens matériels (passage à la fibre optique) ne suffisent pas. Pour surmonter cela, les réseaux doivent prendre en compte le type de contenu (texte, vidéo, ...) ainsi que le contexte d’utilisation (état du réseau, capacité du terminal, ...) pour assurer une qualité d’expérience optimum. A ce sujet, la vidéo fait partie des contenus les plus critiques. Ce type de contenu est non seulement de plus en plus consommé par les utilisateurs mais est aussi l’un des plus contraignant en terme de ressources nécéssaires à sa distribution (taille serveur, bande passante, …). Adapter un contenu vidéo en fonction de l’état du réseau (ajuster son débit binaire à la bande passante) ou des capacités du terminal (s’assurer que le codec soit nativement supporté) est indispensable. Néanmoins, l’adaptation vidéo est un processus qui nécéssite beaucoup de ressources. Cela est antinomique à son utilisation à grande echelle dans les appareils à bas coûts qui constituent aujourd’hui une grande part dans l’ossature du réseau Internet. Cette thèse se concentre sur la conception d’un système d’adaptation vidéo à bas coût et temps réel qui prendrait place dans ces réseaux du futur. Après une analyse du contexte, un système d’adaptation générique est proposé et évalué en comparaison de l’état de l’art. Ce système est implémenté sur un FPGA afin d’assurer les performances (temps-réels) et la nécessité d’une solution à bas coût. Enfin, une étude sur les effets indirects de l’adaptation vidéo est menée
On the one hand, technology advances have led to the expansion of the handheld devices market. Thanks to this expansion, people are more and more connected and more and more data are exchanged over the Internet. On the other hand, this huge amound of data imposes drastic constrains in order to achieve sufficient quality. The Internet is now showing its limits to assure such quality. To answer nowadays limitations, a next generation Internet is envisioned. This new network takes into account the content nature (video, audio, ...) and the context (network state, terminal capabilities ...) to better manage its own resources. To this extend, video manipulation is one of the key concept that is highlighted in this arising context. Video content is more and more consumed and at the same time requires more and more resources. Adapting videos to the network state (reducing its bitrate to match available bandwidth) or to the terminal capabilities (screen size, supported codecs, …) appears mandatory and is foreseen to take place in real time in networking devices such as home gateways. However, video adaptation is a resource intensive task and must be implemented using hardware accelerators to meet the desired low cost and real time constraints.In this thesis, content- and context-awareness is first analyzed to be considered at the network side. Secondly, a generic low cost video adaptation system is proposed and compared to existing solutions as a trade-off between system complexity and quality. Then, hardware conception is tackled as this system is implemented in an FPGA based architecture. Finally, this system is used to evaluate the indirect effects of video adaptation; energy consumption reduction is achieved at the terminal side by reducing video characteristics thus permitting an increased user experience for End-Users
APA, Harvard, Vancouver, ISO, and other styles
38

FERRAZ, DE CAMARGO ROGERIO. "Architecture materielle et logicielle pour le controle d'execution d'un robot mobile autonome." Toulouse 3, 1991. http://www.theses.fr/1991TOU30127.

Full text
Abstract:
Par definition, une structure de controle correspond aux composantes logicielles chargees du controle d'execution des actions menees par un robot. Les travaux presentes dans cette these ont porte sur la problematique du controle d'execution et l'organisation de la structure de controle d'un robot, dans le but d'etablir les concepts d'une architecture materielle et logicielle generale pour le controle d'execution des actions des robots mobiles autonomes. Ces concepts ont pu etre materialises sur hilare ii, le nouveau robot experimental du laas. Selon notre approche, la structure de controle d'un systeme robotique complexe peut etre consideree comme un ensemble de couches logicielles successives, baties sur les capacites materielles du robot physique. La couche la plus basse (robot virtuel) permet aux couches logicielles de niveau superieur d'acceder au robot physique. La couche suivante (substrat de modules) est constituee par un ensemble de modules fonctionnels qui cooperent entre eux pour realiser les taches fournies par un controleur central. Chaque module est capable d'executer des services specifiques, au moyen d'actions sur le robot virtuel et/ou sur les autres modules du substrat. Le substrat de modules represente la composante distribuee du controle du robot, necessaire a l'accomplissement des missions avec un degre suffisant d'autonomie et de reactivite. Place au-dessus des modules fonctionnels, un controleur central verifie l'evolution de l'etat du robot et de son environnement, s'assure de l'applicabilite des actions du plan, declenche l'execution de ces actions et detecte/corrige d'eventuels echecs
APA, Harvard, Vancouver, ISO, and other styles
39

Lévy, Benjamin. "Principes et architectures pour un système interactif et agnostique dédié à l’improvisation musicale." Paris 6, 2013. http://www.theses.fr/2013PA066652.

Full text
Abstract:
Le travail présenté dans cette thèse se concentre sur la conception et la réalisation d’un système informatique, capable d’interagir musicalement et pertinemment avec des musiciens acoustiques dans le cadre de l’improvisation libre collective, c’est à dire de l’improvisation détachée de toute structures, règles ou style prédéfinis. Nous étendrons ce cadre à la fin de notre travail en y intégrant l’utilisation de propriétés émergentes telles que la pulsation ou une notion large d’harmonie. Le projet OMax propose d’aborder le problème de l’improvisation non-idiomatique par l’apprentissage et l’imitation à la volée du style d’un musicien à l’aide d’un modèle de connaissance agnostique. Ce système sert de base à notre travail et nous en examinons attentivement trois aspects : les principes conceptuels du système, les architectures logicielles permettant une implémentation efficace, et l’usage réel du système dans de nombreux tests et concerts. Outre une étude fouillée de tous les éléments théoriques du système suivant une décomposition anthropomorphique de ses différentes parties, les contributions principales du travail présenté dans cette thèse sont la conception et la réalisation de plusieurs nouvelles versions du système OMax. Ce travail a été fortement associé à des tests réguliers des prototypes du système avec de nombreux musiciens de premier plan
The work presented in this thesis focuses on the conception and realization of a software capable of pertinent interaction with acoustic musicians in a collective free improvisation, that is an improvisation without any predetermined knowledge of structures, rules or style. It is extended at the end of our work with considerations on emerging properties such as pulse or a broad notion of harmony. The OMax project proposes to approach this problem of non-idiomatic improvisation by learning and mimicking the style of a musician with an agnostic and incremental knowledge model. We take this computer system as our work basis and examine carefully three aspects: the conceptual principles of the system, the software architectures for effective implementations and the real-life usage of this system in numerous testing and concerts situations. Besides a thorough study of all the conceptual elements of the system based on anthropomorphic decomposition of its parts, our main contribution is the design and realization of several variations of the OMax system. Our work has been also strongly coupled with the testing of our prototypes with several leading musicians
APA, Harvard, Vancouver, ISO, and other styles
40

Waignier, Guillaume. "Canevas de développement agile pour l’évolution fiable de systèmes logiciels à composants et orientés services." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10007/document.

Full text
Abstract:
Les logiciels se caractérisent par un besoin d'évolutions perpétuelles et rapides. Pour faciliter l'évolution rapide de systèmes, des approches de génie logiciel ont été proposées, telles que les architectures logicielles et la méthode de conception agile. Néanmoins, les solutions actuelles offrent peu de support pour permettre l'évolution fiable d'un système, c'est-à-dire permettre sa modification tout en garantissant le respect de ses exigences de qualités de service (QdS) et de bon fonctionnement global. La contribution de cette thèse est CALICO, un canevas de développement agile et multi plates-formes pour la conception et l'évolution fiable de systèmes logiciels à composants/services. Le développement agile repose sur un cycle itératif et incrémental qui permet à l'architecte d'itérer entre les étapes de conception de l'architecture et de débogage du logiciel dans son environnement d'exécution. Ainsi, lors de la conception, l'architecte dispose de métamodèles pour spécifier la structure de l'architecture et ses diverses exigences de QdS. Lors du déploiement, CALICO utilise les modèles spécifiés pour instancier le système sur la plate-forme d'exécution et les garde synchronisés avec le logiciel lors de son exécution. L'architecte dispose toujours d'une vue conceptuelle qui lui permet de raisonner sur les propriétés de son logiciel lors d'une évolution. Pour fiabiliser ces évolutions, CALICO offre un cadre fédérateur qui autorise la réutilisation de nombreux outils d'analyse statique et de débogage dynamique qui étaient jusqu'alors dispersés dans différentes plates-formes. CALICO permet donc de fiabiliser les évolutions même si les plates-formes ne le proposent pas
Software is characterized by a need for constant and rapid evolution. To facilitate the rapid evolution of systems, software engineering approaches have been proposed, such as software architecture and agile method. However, current solutions offer poor support to enable the development of a reliable system, i.e., allow its modification while ensuring compliance with the quality of service requirements (QoS) and its good overall safety. The contribution of this thesis is CALICO, an agile and multi platforms development framework for the design and evolution of reliable component-based and service-oriented software. The agile development relies on an iterative and incremental cycle that allows the architect to iterate between the design of architecture and the debug of software in its execution context. Thus, at design, the architect can use the CALICO's metamodels to specify the structure of the architecture and the various QoS properties. At deployment, CALICO instantiates the system on the runtime platform from the specified models and keeps them synchronized with the software during its execution. By this way, the architect has a conceptual view which allows him to reason on the software properties during its evolution. In order to check these evolutions, CALICO provides a unifying framework which allows reuse of many static analysis tools and dynamic debugging tools that were previously scattered in different platforms. Globally, CALICO enables reliable evolutions even if the platforms do not provide this support
APA, Harvard, Vancouver, ISO, and other styles
41

Cunat, Christophe. "Accélération matérielle pour le rendu de scènes multimédia vidéo et 3D." Phd thesis, Télécom ParisTech, 2004. http://tel.archives-ouvertes.fr/tel-00077593.

Full text
Abstract:
Un processus de convergence des techniques algorithmiques de deux domaines autrefois disjoints, convergence facilité par l'émergence de normes telles que MPEG-4, s'est engagé au cours de ces dernières années. Grâce au concept de codage par objets, une scène peut être reconstituée par la composition de divers objets dans un ordre déterminé.
Cette thèse s'inscrit dans le cadre de la composition d'objets visuels qui peuvent être de natures différentes (séquences vidéo, images fixes, objets synthétiques 3D, etc.). Néanmoins, les puissances de calcul nécessaires afin d'effectuer cette composition demeurent prohibitives sans mise en place d'accélérateurs matériels spécialisés et deviennent critiques dans un contexte de terminal portable.
Une revue tant algorithmique qu'architecturale des différents domaines est effectuée afin de souligner à la fois les points de convergence et de différence. Ensuite, trois axes (interdépendants) de réflexions concernant les problématiques de représentation des données, d'accès aux données et d'organisation des traitements sont principalement discutés.
Ces réflexions sont alors appliquées au cas concret d'un terminal portable pour la labiophonie : application de téléphonie où le visage de l'interlocuteur est reconstruit à partir d'un maillage de triangles et d'un placage de texture. Une architecture unique d'un compositeur d'image capable de traiter indifféremment ces objets visuels est ensuite définie. Enfin, une synthèse sur une plateforme de prototypage de cet opérateur autorise une comparaison avec des solutions existantes, apparues pour la plupart au cours de cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
42

Chaudet, Christelle. "π-Space : langage et outils pour la description d'architectures évolutives à composants dynamiques : formalisation d'architectures logicielles et industrielles." Chambéry, 2002. http://www.theses.fr/2002CHAMS022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Miraoui, Moeiz. "Architecture logicielle pour l'informatique diffuse : modélisation du contexte et adaptation dynamique des services." Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/69/1/MIRAOUI_Moeiz.pdf.

Full text
Abstract:
Dans un système informatique diffus, un ensemble d’équipements informatiques intelligents communiquent et collaborent ensemble en percevant le contexte global et en réagissant proactivement (sans intervention explicite de l'utilisateur) afin de fournir des services adaptés à l'utilisateur et aux applications. Ainsi, dans un système diffus, les équipements doivent être sensibles au contexte. Par conséquent, le contexte constitue un concept clé dans de tels systèmes et exige ainsi une bonne compréhension et utilisation. Ce terme est encore général et vague malgré le grand nombre de définitions proposées. Dans cette thèse, nous présentons une définition orientée service du contexte qui est assez abstraite et qui limite l'ensemble de l’information nécessaire pour réaliser l'adaptation des services. La conception et l’implémentation des systèmes diffus exigent de nouveaux outils logiciels, en particulier des architectures pour appuyer le développement de tels systèmes. Ces outils doivent soutenir les caractéristiques de ces systèmes telles que la mobilité et la sensibilité au contexte. Dans cette thèse, nous proposons une architecture multiagents orientée service pour les systèmes informatiques diffus. L'architecture prend en considération l'aspect dynamique des systèmes diffus. Elle est générique (applicable à une grande variété d'applications) et modulaire cela, favorisant la réutilisabilité. L'architecture a été modélisée en utilisant le formalisme de réseau de Pétri coloré et simulée par l’outil CPN-Tools en se basant sur des scénarios réels de l’informatique diffuse. La première tâche de la conception des applications informatiques diffuses consiste à comprendre le contexte et à établir ses composants. Il doit être modélisé sous une forme appropriée qui favorise son partage entre les équipements et fournit un niveau élevé d'abstraction. Les méthodes les plus intéressantes pour la modélisation de contexte sont celles fondées sur les ontologies. Cependant, la majorité des méthodes existantes échouent à proposer une ontologie générique pour modéliser le contexte. Cela limite leur utilité et les rend spécifiques à un domaine particulier. Dans cette thèse, nous présentons une ontologie de service pour la modélisation du contexte dans un système diffus. La tâche d'adaptation dynamique de services dans un système diffus doit être faite selon le contexte et prendre en considération les ressources limitées des équipements dans un système diffus. Dans cette thèse, nous proposons également deux approches d'adaptation dynamique des services. La première est basée sur l’apprentissage automatique et a été validée par un scénario d'application typique ; la seconde est une nouvelle architecture pour l'adaptation des services qui est sensible au contexte et aux ressources limitées d’un équipement. L'architecture a été modélisée en utilisant le formalisme de réseau de Pétri coloré et simulée par l’outil CPNTools en se fondant sur des Scénarios réels de l’informatique diffuse.
APA, Harvard, Vancouver, ISO, and other styles
44

Porquet, Joël. "Architecture de sécurité dynamique pour systèmes multiprocesseurs intégrés sur puce." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00574088.

Full text
Abstract:
Cette thèse présente l'approche multi-compartiment, qui autorise un co-hébergement sécurisé et flexible de plusieurs piles logicielles autonomes au sein d'un même système multiprocesseur intégré sur puce. Dans le marché des appareils orientés multimédia, ces piles logicielles autonomes représentent généralement les intérêts des différentes parties prenantes. Ces parties prenantes sont multiples (fabricants, fournisseurs d'accès, fournisseurs de contenu, utilisateurs, etc.) et ne se font pas forcément confiance entre elles, d'où la nécessité de trouver une manière de les exécuter ensemble mais avec une certaine garantie d'isolation. Les puces multimédia étant matériellement fortement hétérogènes -- peu de processeurs généralistes sont assistés par une multitude de processeurs ou coprocesseurs spécialisés -- et à mémoire partagée, il est difficile voire impossible de résoudre cette problématique uniquement avec les récentes techniques de co-hébergement (virtualisation). L'approche multi-compartiment consiste en un nouveau modèle de confiance, plus flexible et générique que l'existant, qui permet à des piles logicielles variées de s'exécuter simultanément et de façon sécurisée sur des plateformes matérielles hétérogènes. Le cœur de l'approche est notamment composé d'un mécanisme global de protection, responsable du partage sécurisé de l'unique espace d'adressage et logiquement placé dans le réseau d'interconnexion afin de garantir le meilleur contrôle. Cette approche présente également des solutions pour le partage des périphériques, notamment des périphériques ayant une capacité DMA, entre ces piles logicielles. Enfin, l'approche propose des solutions pour le problème de redirection des interruptions matérielles, un aspect collatéral au partage des périphériques. Les principaux composants des solutions matérielles et logicielles proposées sont mis en œuvre lors de la conception d'une plateforme d'expérimentation, sous la forme d'un prototype virtuel. Outre la validation de l'approche, cette plateforme permet d'en mesurer le coût, en termes de performance et de surface de silicium. Concernant ces deux aspects, les résultats obtenus montrent que le coût est négligeable.
APA, Harvard, Vancouver, ISO, and other styles
45

Zouari, Mohamed. "Architecture logicielle pour l'adaptation distribuée : Application à la réplication de données." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00652046.

Full text
Abstract:
L'adaptation dynamique permet de modifier une application en cours d'exécution en fonction des fluctuations de son environnement et des changements des exigences des utilisateurs. De nombreux travaux ont proposé des méthodes et mécanismes pour adapter une application centralisée. Mais, le cas des applications distribuées a été beaucoup moins abordé. En particulier, la distribution du système d'adaptation lui-même est très peu envisagée. Nous proposons dans cette thèse une approche visant à définir une architecture logicielle à base de composants pour permettre la gestion distribuée et coordonnée de l'adaptation dynamique d'applications. Nous définissons un modèle d'architecture logicielle de systèmes d'adaptation qui permet la variabilité des configurations du système et qui inclut des mécanismes spécialisables pour assurer la coordination. Le domaine d'application choisi pour illustrer notre approche d'adaptation est la gestion de données répliquées. Dans ce domaine, nous avons développé un prototype pour la construction de systèmes d'adaptation distribués d'une part, et de systèmes de réplication d'autre part. Le prototype, qui se base sur le modèle de composants Fractal, nous a permis de mener des expérimentations d'adaptation distribuée sur un système de réplication de données en milieu médical pour le suivi d'un patient à domicile.
APA, Harvard, Vancouver, ISO, and other styles
46

Badawi, Masaoud. "Jablé (Syrie) et son territoire à l'époque hellénistique et romaine : développement urbain et culture matérielle." Paris 1, 2009. http://www.theses.fr/2009PA010535.

Full text
Abstract:
Des premiers voyageurs européens en 1745 aux fouilles de 2008, ce travail présente l'évolution de la ville de Jablé aux époques classiques. A partir des découvertes issues des nécropoles et des fouilles urbaines, des vestiges présents dans la ville et par une démarche qui croise photographies aériennes anciennes avec cartes et plans récents, se dessinent les contours des premiers traces urbains issus du noyau de I' Âge du Bronze près du port naturel. Le théâtre est présenté d'un double point de vue architectural et archéologique. La culture matérielle, illustrée par 516 artefacts de tous types, attestent des rituels funéraires de la classe aisée des habitants. Le dossier des comparaisons permet d'identifier de nombreuses importations du bassin méditerranéen. Ces résultats inédits placent Jablé parmi les villes de taille moyenne de la Syrie hellénistique et romaine a un carrefour multiséculaire entre la mer, la plaine c6tiere et la voie reliant les Portes de Syrie a l'Egypte.
APA, Harvard, Vancouver, ISO, and other styles
47

Pradal, Christophe. "Architecture de dataflow pour des systèmes modulaires et génériques de simulation de plante." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS034.

Full text
Abstract:
La modélisation en biologie, plus particulièrement celle de la croissance et du fonctionnement des plantes, est un domaine actuellement en pleine expansion, utile pour appréhender les enjeux liés au changement climatique et à la sécurité alimentaire au niveau mondial. La modélisation et la simulation sont des outils incontournables pour la compréhension des relations complexes entre l'architecture des plantes et les processus qui influencent leur croissance dans un environnement changeant. Pour la modélisation des plantes, un grand nombre de formalismes ont été développés dans de nombreuses disciplines et à différentes échelles de représentation. L'objectif de cette thèse est de définir une architecture modulaire qui permette de simuler des systèmes structure-fonction en réutilisant et en assemblant différents modèles existants. Nous étudierons d'abord les différentes approches de la réutilisation logicielle, proposées par Krueger, les systèmes à tableau noir et les systèmes de workflows scientifiques. Ces différentes approches sont utilisées afin de faire coopérer, de réutiliser et d'assembler des artefacts logiciels de façon modulaire. A partir du constat que ces systèmes fournissent les abstractions nécessaires à l'intégration d'artefacts variés, notre hypothèse de travail est qu'une architecture hybride, basée sur les systèmes à tableau noir avec un contrôle procédural piloté par dataflow, permettrait à la fois d'obtenir la modularité tout en permettant au modélisateur de garder le contrôle sur l'exécution. Dans le chapitre 2, nous décrivons la plateforme OpenAlea, une plateforme à composants logiciels et offrant un système de workflow scientifique, permettant l'assemblage et la composition de modèles à travers une interface de programmation visuelle. Dans le chapitre 3, nous proposons une structure de données pour le tableau noir, associant une représentation topologique de l'architecture des plantes à différentes échelles, le Multiscale Tree Graph, et sa spatialisation géométrique à l'aide de la bibliothèque 3D PlantGL. Ensuite, dans le chapitre 4, nous présentons les lambda-dataflows, une extension des dataflows permettant de coupler simulation et analyse. Puis, dans le chapitre 5, nous présentons une première application, qui illustre l'utilisation d'un modèle générique de feuilles de graminées dans différents modèles de plantes. Finalement, dans le chapitre 6, nous présentons l'ensemble des éléments de l'architecture utilisés pour élaborer un cadre générique de modélisation du développement des maladies foliaires dans un couvert architecturé. L'architecture présentée dans cette thèse et sa mise en œuvre dans OpenAlea sont un premier pas vers la réalisation de plateformes de modélisation intégratives ouvertes, permettant la coopération de modèles hétérogènes en biologie. L'utilisation du formalisme de workflows scientifiques en analyse et en simulation permet notamment d'envisager à court terme l'élaboration des plateformes de simulation collaboratives et distribuées à grande échelle
Biological modeling, particularly of plant growth and functioning, is a rapidly expanding field that is useful in addressing climate change and food security issues at the global level. Modeling and simulation are essential tools for understanding the complex relationships between plant architecture and the processes that influence their growth in a changing environment.For plant modeling, a large number of formalisms have been developed in many disciplines and at different scales of representation.The objective of this thesis is to define a modular architecture that allows to simulate structural-functional plant systems by reusing and assembling different existing models.We will first study the different approaches to software reuse proposed by Krueger, then blackboard systems, and scientific workflow systems.These different approaches are used to cooperate, reuse and assemble software artifacts in a modular manner.Based on the observation that these systems provide the abstractions necessary for the integration of various artifacts, our working hypothesis is that a hybrid architecture, based on blackboard systems with dataflow-driven procedural control, would both achieve modularity while allowing the modeler to maintain control over execution.In Chapter 2, we describe the OpenAlea platform, a platform with software components and a scientific workflow system, allowing the assembly and composition of models through a visual programming interface. In Chapter 3, we propose a data structure for the blackboard, combining a topological representation of plant architecture at different scales, the Multiscale Tree Graph, and its geometric spatialization using the 3D PlantGL library. In chapter 4, we present the lambda-dataflows, an extension of dataflows allowing to couple simulation and analysis.Then, in Chapter 5, we present a first application, which illustrates the use of a generic gramineous leaf model in different plant models. Finally, in Chapter 6, we present all the architectural elements used to develop a generic framework for modelling the development of foliar diseases in an architectural canopy.The architecture presented in this thesis and its implementation in OpenAlea are a first step towards the realization of open integrative modeling platforms, allowing the cooperation of heterogeneous models in biology. The use of scientific workflow formalism in analysis and simulation makes it possible to consider in the short term the development of collaborative and distributed simulation platforms on a large scale
APA, Harvard, Vancouver, ISO, and other styles
48

Youssef, Mohamed Wassim. "Étude des interfaces logicielles/matérielles dans le cadre des systèmes multiprocesseurs monopuces et des modèles de programmation parallèle de haut niveau." Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10030.

Full text
Abstract:
Today's systems-on-chip are multiprocessor. They are characterized by an increasing complexity and a reduced time to market. To tackle this complexity, the use of high level programming models seems to be a promising approach. In this work, we propose an MPSoC design flow, based on the use of high level parallel programming models API to design embedded software. An automated refinement of these API on target architecture is used. For that purpose, (1) MPSoC hardware/software interfaces were studied; then (2) parallel programming models and their classification in terms of provided abstraction were presented. The proposed flow has been used in two design experiments: (1) an MPEG video encoder, namely OpenDivX, using the MPI parallel programming model and targeting the ARM Integrator prototyping platform, (2) a software defined radio using the CORBA parallel programming model and targeting specific hardware architecture
Les systèmes mono-puce sont composés d'une partie logicielle et d'une partie matérielle. L'exécution de la partie logicielle sur les ressources de la partie matérielle est assuré a travers l'utilisation d'une interface logicielle/matérielle. Cette interface a une structure complexe, sa conception nécessite des compétences issues des domaines du logiciel et du matériel. Pour maîtriser cette complexité, des approches de conception de haut niveau sont requises. Dans cette optique, un flot de conception des systèmes MPSoC est proposé. Il est basé sur l'utilisation des API des modèles de programmation parallèle en vue de l'abstraction des interfaces logicielles/matérielles lors de la conception de la partie logicielle, puis de leur génération automatique en raffinant l'API utilisée sur l'architecture cible. Pour arriver à ce but, (1) une étude de l'architecture des interfaces logicielles/matérielles a été réalisé. Puis, (2) une étude des modèles de programmation parallèle et une classification en fonction de leur niveau d'abstraction a été effectué. Ensuite, le flot proposé a été utilisé pour la conception de deux applications : (1) un encodeur vidéo OpenDivX en utilisant le modèle de programmation parallèle MPI et la plateforme ARM IntegratorAP comme architecture matérielle cible, (2) une radio définie par logiciel en utilisant le modèle de programmation CORBA et une architecture matérielle spécifique comme architecture cible
APA, Harvard, Vancouver, ISO, and other styles
49

Shields, Jean-Philippe. "Élaboration du modèle conceptuel flexible et extensible d'une architecture logicielle orientée-objet permettant la parallélisation et la distribution d'une architecture de simulation séquentielle." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24474/24474.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Sayadi, Fatma Ezzahra. "Conception d'un composant virtuel pour le codage audio." Lorient, 2006. http://www.theses.fr/2006LORIS069.

Full text
Abstract:
Etant donné le développement actuel des communications numériques le codage de la parole a bénéficié d’un grand nombre d’études. D’importantes réductions de débit peuvent ainsi être obtenues par des algorithmes de compression efficaces, qui tiennent compte des redondances naturelles de la parole. Le plus connu de ces codeurs paramétriques est le codeur de type CELP (Code-Excited Linear Prediction) conçu pour le codage de la parole à des débits allant de 6 à 16 kbits/s. Face à la complexité croissante de ces applications, les outils et méthodologies de conception et de vérification classiques apparaissent inadaptés à la réalisation des systèmes embarqués dans des délais raisonnables. Les nouvelles approches envisagées reposent sur une élévation du niveau d’abstraction de la spécification d’un système, permettant d’orthogonaliser les choix d’implantation relatifs à chaque sous système (Implantation en matériel où en logiciel, choix des interfaces de communications…) et d’accélérer la vérification d’un système à différents niveaux d’abstraction. Afin d’accélérer le raffinement de la spécification abstraite d’un système en une architecture synthétisable, l’intégration des différents blocs fonctionnels qui le constituent privilégie la réutilisation de composants prédéfinis et prévérifiés. Ce sont les composants virtuels ou blocs IP (Intellectual Property). Nous proposons dans cette thèse d’implanter une architecture dédiée au traitement de la parole satisfaisant la norme de codage G729, pour laquelle les parties critiques en ce qui concerne la contrainte temps réel seront intégrées par des composants virtuels matériels, tandis que les autres parties du système seront traitées de manière logicielle
Considering the expansion of digital communication systems, voice decoding benefited from a great number of studies. Important reductions of flow can thus be obtained by effective algorithms of compression, which take account of the natural redundancies of the word. Most known of these parametric coders is the CELP coder (Code-Excited Linear Prediction) commonly applied for encoding speech signals at 6 to 16 kbits/s. Considering the increasing complexity of these applications, the tools and methodologies of traditional design and verification appear unsuited to the realization of the embedded systems within reasonable times. The new approaches considered are based on system level description , co-design techniques and reuse IP cores. These techniques have to cope with heavy constraints like real time performances and cost. We propose in this thesis to establish an architecture dedicated to the speech processing, for which the critical parts with regard to the constraint real time will be integrated as hardware virtual components, while the other parts of the system will be treated in a software way
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography