Дисертації з теми "Déploiement de systèmes"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Déploiement de systèmes.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Déploiement de systèmes".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Boujbel, Raja. "Déploiement de systèmes répartis multi-échelles : processus, langage et outils intergiciels." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec la multiplication des objets connectés, les systèmes multi-échelles sont de plus en plus répandus. Ces systèmes sont fortement répartis, hétérogènes, dynamiques et ouverts. Ils peuvent être composés de centaines de composants logiciels déployés sur des milliers d'appareils.Le déploiement est un processus complexe qui a pour objectif la mise à disposition puis le maintien en condition opérationnelle d'un système logiciel. Pour les systèmes multi-échelles, l'expression du plan de déploiement ainsi que la réalisation et la gestion du déploiement sont des tâches humainement impossibles du fait de l'hétérogénéité, de la dynamique, du nombre, mais aussi parce que le domaine de déploiement n'est pas forcément connu à l'avance. L'objectif de cette thèse est d'étudier et de proposer des solutions pour le déploiement de systèmes répartis multi-échelles. Nous proposons tout d'abord une mise à jour du vocabulaire relatif au déploiement, ainsi qu'un état de l'art sur le déploiement automatique des systèmes logiciels répartis. Le reste de la contribution réside dans la proposition : d'un processus complet pour le déploiement autonomique de systèmes multi-échelles ; d'un langage dédié (DSL), MuScADeL, qui simplifie la tâche du concepteur du déploiement et permet d'exprimer les propriétés de déploiement ainsi que des informations concernant la perception de l'état du domaine de déploiement ; d'un middleware, MuScADeM, qui assure la génération automatique d'un plan de déploiement en fonction de l'état du domaine, sa réalisation puis le maintien en condition opérationnelle du système
Due to increased connected objects, multiscale systems are more and more widespread. Those systems are highly distributed, heterogeneous, dynamic and open. They can be composed of hundreds of software components deployed into thousands of devices. Deployment of software systems is a complex post-production process that consists in making software available for use and then keeping it operational. For multiscale systems, deployment plan expression just as deployment realization and management are tasks impossible for a human stakeholder because of heterogeneity, dynamics, number, and also because the deployment domain is not necessarily known in advance. The purpose of this thesis is to study and propose solutions for the deployment of distributed multiscale software systems. Firstly, we provide an up-to-date terminology and definitions related to software deployment, plus a state of the art on automatic deployment of distributed software systems. The rest of the contribution lies in the proposition of: a complete process for autonomic deployment of multiscale systems ; a domain specific language, MuScADeL, which simplifies the deployment conceptor task and allows the expression of deployment properties such as informations for the domain state probing ; and a middleware, MuScADeM, which insures the automatic generation of a deployment plan according the domain state, its realization and finally the maintenance in an operational condition of the system
2

Chalfoun, Imad. "Conception et déploiement des Systèmes de Production Reconfigurables et Agiles (SPRA)." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22488/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'industrie est aujourd'hui, comme elle a toujours été, une pierre angulaire de l'économie pour chaque pays développé. Avoir une base solide en entreprises industrielles est très important parce qu’elles poussent et stimulent tous les autres secteurs de l'économie, et offrent également une grande variété d'emplois qui apporte des bonnes conditions de vie dans de nombreux secteurs de la société. L’augmentation de la concurrence mondiale, l’évolution rapide du marché, la nécessité de créer des entreprises stables avec des usines rentables obligent la mise en oeuvre d’une démarche globale prenant en compte à la fois les aspects techniques, économiques, logistiques et sociétaux lors de la conception d’un système de production innovant. L’objectif de cette thèse est de contribuer au développement d’un concept innovant de Systèmes de Production Reconfigurables et Agiles (SPRA) permettant de s'adapter rapidement et efficacement aux exigences imposées du marché, des clients, de la technologie des procédés, de l’environnement et de la société afin que l’entreprise soit dynamique, compétitive et rentable. Dans ces travaux de thèse, la proposition d'un modèle générique et la caractérisation de ce nouveau type de système de production ont été décrits en utilisant le langage de modélisation des systèmes complexes (SysML : Systems Modeling Language). Ensuite, nous avons développé un processus de reconfiguration qui représente une démarche à suivre pour concevoir et implanter une nouvelle configuration. De plus, un pilotage opérationnel adapté au SPRA a été introduit. Enfin, quelques travaux développés au cours de cette thèse ont été partiellement déployés sur un démonstrateur industriel au sein de la plate-forme AIP-PRIMECA Auvergne
Industry is, today as it has always been, a cornerstone of the economy for any developed country. Having a strong manufacturing base is very important because it impels and stimulates all the other sectors of the economy. It provides a wide variety of job, which bring higher standards of living to many sectors of society, and builds a strong middle class. Increasing global competition, rapid changes in the marketplace and the need to create stable companies with profitable plants require the implementation of a global approach, taking into account technical, economic, logistic and societal aspects in the design of an innovative manufacturing system. The aim of this dissertation is to contribute to the development of an innovative concept of Reconfigurable and Agile Manufacturing Systems (RAMS) to adapt quickly and effectively to the requirements imposed by markets, customers, technology processes, the environment and society, to ensure that the enterprise is dynamic, competitive and profitable. In this thesis work, the characterization and proposal of a generic model for this new type of manufacturing system have been described using the language of complex systems modeling (SysML: Systems Modeling Language). We have developed a reconfiguration process that represents the approach to follow in the design and implementation of a new configuration. In addition, the operational control of a RAMS has been introduced. Finally, some works developed in this thesis have been partially deployed on an industrial demonstrator within the AIP-PRIMECA Auvergne organisation
3

Agba, Landaabalo. "Elaboration de logiciel d'aide au déploiement de réseaux sans fil millimétriques." Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/4e4f4064-e256-4878-aa69-3c7844b0f2ae/blobholder:0/2004LIMO0020.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le déploiement de réseaux sans fil dans un environnement outdoor est complexe du fait des nombreux paramètres à prendre en compte. Dans ce contexte, ce mémoire présente un logiciel d'aide au déploiement des réseaux qui intègre ces multiples paramètres aux fréquences millimétriques. La méthode de prédiction utilisée est issue de la théorie du Tracé de Rayons associée aux caractéristiques des antennes et du canal de propagation. Les simulations de couverture sur des cas réels sont réalisées à partir des bases de données SIG (Système d'Information Géographique) couplées avec des photos aériennes et des mesures GPS (Global Positioning System). La précision des simulations a été ensuite confirmée avec succès par des mesures expérimentales. Ce logiciel a permis de proposer des améliorations de la couverture d'un système LMDS (Local Multipoint Distribution Services) à 40 GHz par l'utilisation de nouvelles topologies d'antennes, de réflecteurs et de répéteurs
The deployment of wireless networks in an outdoor environment is complex because of the numerous parameters which must be taken into account. In this context, this report presents a relevant planning software for networks deployment which integrates these multiple parameters in millimetric frequency band. Rays Tracing method is used in association with antennae characteristics and propagation channel parameters. The coverage simulations on real cases are realized using GIS (Geographic Information system) databases coupled with aerial view photographs and GPS (Global Positioning System) measurements. The precision of the simulations was successfully confirmed by experimental measurements. This software allowed to propose some coverage improvements of a 40 GHz LMDS (Local Multipoint Distribution Services) system using new antennae topologies, reflectors and repeaters
4

Ricordel, Pierre-Michel. "Programmation orientée multi-agents : développement et déploiement de systèmes multi-agents voyelles." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0096.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La construction de systèmes multi-agents se fait encore trop souvent avec peu de méthodes et la réutilisation du code est souvent minimale, car très peu d'outils méthodologiques et logiciels existent actuellement pour ces systèmes. Nous proposons une plate-forme de construction de systèmes multi-agents, basée sur le paradigme de décomposition Voyelles. L'approche Voyelle est fondée sur la décomposition d'un système multi-agents en quatre éléments : L'Agent, l'Environnement, l'Interaction et l'Organisation. Cette décomposition permet de modulariser le système multi-agents, donc de simplifier la construction du système et d'offrir une meilleure réutilisation du code. Nous proposons une plate-forme logicielle appelée Volcano mettant en oeuvre cette approche originale. Celle-ci prend soin de séparer les étapes d'analyse, de conception, de développement et de déploiement du système multi-agent. Nous nous sommes particulièrement concentrés sur les aspects concernant le développement et le déploiement, et avns élaboré le langage Madel à cet effet. Différentes applications issues de plusieurs domaines d'application (la Robocup, la prise de rendez-vous, la classification) ont été implémentées à l'aide de la plate-forme afin de valider ses capacités d'adaptation et de réutilisation.
5

Dubus, Jérémy. "Une démarche orientée modèle pour le déploiement de systèmes en environnements ouverts distribués." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00668936.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le déploiement reste l'une des étapes du cycle de vie des logiciels la moins standardisée et outillée à ce jour. Dans ce travail, nous identifions quatre grands défis à relever pour dé- ployer des systèmes logiciels distribués et hétérogènes. Le premier défi est de réussir à initier le consensus manquant autour d'un langage générique de déploiement de logiciels. Le deuxième défi consiste en la vérification statique de déploiements logiciels décrits dans ce langage pour assurer un déroulement correct avant d'exécuter les opérations de déploiement. Le troisième défi est de réaliser une plate-forme intergicielle capable d'interpréter ce langage et d'effectuer le déploiement de n'importe quel système logiciel réparti. Enfin le quatrième défi est d'appli- quer ces déploiements de systèmes dans les environnements ouverts distribués, c'est-à-dire les réseaux fluctuants et à grande échelle comme les réseaux ubiquitaires ou les grilles de calcul. Notre contribution consiste à définir une démarche de déploiement de systèmes distribués cen- trée sur quatre rôles pour relever ces défis : l'expert réseau, l'expert logiciel, l'administrateur système et l'architecte métier. D'un côté, l'approche DeployWare, conforme à l'ingénierie des modèles, est définie par un méta-modèle multi-rôles pour décrire le déploiement de la couche intergicielle du système ainsi que par une machine virtuelle capable d'exécuter automatique- ment le déploiement de cette couche. L'utilisation d'un langage de méta-modélisation permet d'écrire des programmes de vérification statique des modèles de déploiement. De l'autre côté, l'approche DACAR propose un méta-modèle d'architecture générique pour exprimer et exé- cuter le déploiement d'une application métier à base de composants. Cette double approche DeployWare/DACAR permet de prendre en compte, lors de la description du déploiement, les propriétés des environnements ouverts distribués selon une approche conforme à l'informatique auto-gérée. Notre contribution est validée par plusieurs expériences pour valider la capacité de prise en charge des environnements ouverts ubiquitaires, et pour éprouver l'hétérogénéité des technologies déployables dans le monde des services d'entreprise.
6

Daix, Boris. "Abstraction des systèmes informatiques à haute performance pour l'automatisation du déploiement d'applications dynamiques." Rennes 1, 2009. http://www.theses.fr/2009REN1S156.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'informatique est un formidable levier du développement humain, cependant l'utilisation de systèmes à haute performance reste complexe. En effet, allouer des ressources pour une application, l'installer sur les ressources allouées, et l'exécuter est un processus difficile. Automatiser ce processus, appelé déploiement, permet de mieux séparer les préoccupations des utilisateurs de systèmes, des développeurs d'applications, et des administrateurs d'infrastructures tout en visant de meilleures performances pour les applications. Fondée sur un modèle d'abstraction multi-niveau, la contribution de cette thèse est une architecture de déploiement automatique capable de respecter les contraintes de compatibilité et de faisabilité, inhérentes au déploiement, pour des ressources et des applications parallèles et réparties, hétérogènes, et dynamiques telles que des grappes ou des grilles de calcul et des applications paramétriques, parallèles, ou en flot de travail
Computing is an important lever in human development, however using high performance systems remains complex. Indeed, allocating some resources for an application, installing it on the allocated resources, and executing it is a difficult process. Automating this process, called deployment, allows to better separate the concerns of the system users, of the application developers, and of the infrastructure administrators while aiming at better performances for the applications. Based on a multi-level abstraction model, the contribution of this thesis is an automatic deployment architecture able to honor the compatibility and feasibility constraints, inhere in the deployment, for resources and applications parallel and distributed, heterogeneous, and dynamic such as computing clusters or grids and parametric, parallel, or workflow applications
7

Krichen, Mariem. "Modèle technico-économique pour le déploiement d'un réseau femto avec le partage de ressources." Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, les opérateurs mobiles veulent offrir une qualité de service correcte à leurs clients alors qu’ils se trouvent au cœur d’un scénario catastrophique avec des demandes de données doublant d’une année à une autre, des réseaux atteignant leur limite de capacité et des revenus stables dus aux tarifs forfaitaires. Nous proposons dans cette thèse d’exploiter des accès femto installés chez les clients. Cette solution implique la gestion de différents types de cellules. Les mécanismes d’auto-configuration des cellules seraient donc vitaux aux opérateurs mobiles. La première partie de la thèse compare les performances de trois algorithmes pour l’auto-configuration des identifiants physiques de cellules en LTE. Dans la deuxième partie, nous présentons un modèle technico-économique où deux types d’acteurs interagissent. Tout d’abord, les fournisseurs d’accès femto sont les clients de l’opérateur mobile qui ont un accès femto chez eux et qui acceptent de partager une partie de leur bande passante. Puis, les consommateurs d’accès femto sont les clients qui ont besoin d’une bonne qualité de service à l’extérieur. Dans le problème de partage d’accès femto, les consommateurs sont en compétition pour accéder aux ressources des fournisseurs. Cette compétition est modélisée sous forme d’un jeu où les consommateurs comptent sur un mécanisme d’apprentissage pour adresser leur requête. Nous évaluons les performances de ce mécanisme pour différentes charges du réseau et quelques scénarios où la compétition entre les consommateurs diffère. Enfin, ce mécanisme est implémenté dans un contexte statique et un contexte dynamique. Nous proposons une solution aux problèmes de mobilité
Nowadays, the mobile operators want to offer a correct quality of service to their clients while they are in the heart of a catastrophic scenario with data request doubling from one year to another, networks reaching their capacity limits and stable revenues due to flat rate. The solution that we propose in this thesis is the exploitation of femto accesses, set up at clients place, through sharing resources. Since many types of cells should be managed with the introduction of femto cells, self-configuration mechanisms would be vital for mobile operators. The first part of this thesis compares the performances of three algorithms for the self-confi guration of the physical cell identifier in LTE. In the second part of the thesis, we present a techno-economic model where two types of actors interact. First, the femto access providers are the mobile operator clients who own femto access at their place and accept to share part of their bandwidth with other clients. Then, the femto access requesters are the mobile operator clients who need a good quality of service outdoor. In sharing femto access problem, requesters are competing to access providers resources. This competition is modeled as a game where requesters rely on a learning mechanism to address their requests. Through simulations, we evaluate the performances of this mechanism for different network loads and scenarios where competition between requesters differs. Finally, this mechanism is implemented on a static context then on a dynamic one. We propose a solution to mobility issues based on cells categorization
8

Foucher, Clément. "Méthodologie de conception pour la virtualisation et le déploiement d'applications parallèles sur plateforme reconfigurable matériellement." Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00777511.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les applications auto-adaptatives, dont le comportement évolue en fonction de l'environnement, sont un élément clé des systèmes de demain. L'utilisation de matériel reconfigurable, combiné à la parallélisation des unités de calcul, permettent d'envisager de nouveaux niveaux de performances pour ces mêmes applications. L'objectif de cette thèse est de mettre en place un ensemble d'outils permettant la description et le déploiement d'applications parallèles auto-adaptatives. Nous proposons à la fois un modèle d'application parallèle et une architecture de plateforme reconfigurable destinée au déploiement des applications conçues en utilisant ce modèle. Notre modèle d'applications sépare le contrôle du calcul en isolant ce dernier en différents noyaux virtuels. Associée à une représentation du contrôle indépendante de la plateforme, la structure de l'application est donc totalement portable. Indépendamment de celle-ci, les noyaux de calcul peuvent être distribués selon plusieurs implémentations, selon la plateforme, mais également pour proposer différents niveaux de performances. Une couche de virtualisation permet de faire le lien entre la partie contrôle et les noyaux, en traduisant les ordres génériques en actions adaptées à l'implémentation. Concernant la plateforme, nous proposons une architecture permettant l'intégration de ressources de calcul logicielles et matérielles, pouvant être implémentées tant statiquement qu'en utilisant du matériel reconfigurable. Cette architecture parallèle, inspirée du modèle des supercalculateurs, doit permettre d'utiliser tout type d'unités d'exécution et de matériel reconfigurable comme base matérielle pour la plateforme.
9

Trampont, Mathieu. "Modélisation et optimisation du déploiement des réseaux de télécommunications : applications aux réseaux d'accès cuivres et optiques." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0667.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit présente des travaux effectués sur l'optimisation des réseaux d'accès télécoms. Il s'agit de la partie du réseau qui agrège le trafic des clients se trouvant dans une même zone géographique, avant de le transmettre vers le coeur du réseau. C'est un réseau hiérarchique avec à son sommet un concentrateur central et à sa base les clients, et qui présentent un ou plusieurs niveaux de concentrateur intermédiaires. Nous nous intéressons ici à deux applications : l'optimisation de l'accès du réseau téléphonique commuté sur un territoire vierge, et l'optimisation du déploiement d'un réseau d'accès en fibre optique en présence d'une infrastructure existante. Pour la première application, nous proposons d'améliorer les méthodes de résolution existantes et proposons de nouvelles méthodes afin d'avoir des solutions de qualité pour différents types d'instances. Pour le réseau d'accès optique, le problème consiste à raccorder les clients au concentrateur central à travers deux ou trois niveaux de coupleurs optiques. Le but de l'optimisation et de minimiser le coût de déploiement global. Nous proposons de nouveaux modèles pour les problématiques de localisation des coupleurs et de choix du câblage. Quelques tests sont présentés montrant qu'il est possible d'obtenir des solutions de qualité sur des instances réelles pour le problème de localisation de coupleurs
This dissertation presents works on telecommunication access networks optimization. The access network gather the traffic of clients in an area, before transmitting it to the core network. It is a hierarchical network with a central concentrator at the top, the clients at the bottom, and one or two layers of equipements. We focus on two applications : the optimization of the access of the telephone telecommunication network on a new territory, and the optimization of the installation of an optical access network while taking into account an existing infrastructure. For the first application, we propose to improve existing methods and we propose new ones in order to obtain good solutions for different kinds of instances. For the optical network, the problem is to connect the clients to the central concentrator using 2 or 3 layers of optical splitters. The objective is to minimize the global installation cost. We propose new models for the location of splitters and for the choice of cables. Some tests show that good solutions can be obtained on real instances for the location of splitters
10

Zalila, Bechir. "Configuration et déploiement d'applications temps-réel réparties embarquées à l'aide d'un langage de description d'architecture." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004314.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La production de systèmes temps-réel répartis embarqués (TR2E) est une opération lourde en temps et en coût de développement. De plus, les applications temps-réel doivent satisfaire des contraintes dures pour assurer leur bon fonctionnement (respect des échéances temporelles...). L'utilisation des langages de description d'architecture vise à réduire le coût de développement de ces applications. AADL (Architecture Analysis & Design Language) fait partie de cette famille de langages. Il propose la notion de ``composant'' (matériel ou logiciel) dont la sémantique bien définie permet de décrire plusieurs aspects d'un système TR2E. Les différentes contraintes qui doivent être satisfaites sont intégrées dans le modèle AADL sous forme de propriétés. Ce travail de thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application AADL afin de la produire automatiquement. En effet, le processus de production que nous proposons (1) génère automatiquement le code pour intégrer les composants applicatifs à la plate-forme d'exécution, (2) génère automatiquement une importante partie des composants intergiciels taillés sur mesure pour l'application et (3) déploie automatiquement les composants applicatifs et intergiciels afin d'obtenir un système fortement dédié à l'application. Notamment, la plate-forme d'exécution supportant les composants AADL est elle même configurée statiquement en fonction des propriétés spécifiées. L'approche adoptée réduit le temps de développement et permet d'obtenir un code personnalisé et analysable. La configuration et le déploiement (souvent séparés du processus de développement) sont désormais automatiques et intégrés à la chaîne de production.
11

Mzid, Rania. "Rétro-ingénierie des plateformes pour le déploiement des applications temps-réel." Thesis, Brest, 2014. http://www.theses.fr/2014BRES0065/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse s’inscrivent dans le cadre du développement logiciel des systèmes temps réel embarqués. Nous définissons dans ce travail une méthodologie nommée DRIM. Cette méthodologie permet de guider le déploiement des applications temps réel sur différents RTOS en suivant la ligne de l’IDM et en assurant le respect des contraintes de temps après le déploiement. L’automatisation de la méthodologie DRIM montre sa capacité à détecter les descriptions non-implémentables de l’application, réalisées au niveau conception, pour un RTOS donné, ce qui présente l’avantage de réduire le temps de mise sur le marché d’une part et de guider l’utilisateur pour un choix approprié de l’RTOS cible d’autre part
The main purpose of this Phd is to contribute to the software development of real-time embedded systems. We define in this work a methodology named DRIM: Design Refinement toward Implementation Methodology. This methodology aims to guide the deployment of a real-time application on to different RTOS while respecting MDE principals and ensuing that the timing properties are still met after deployment. The automation of DRIM shows its ability to detect non-implementable design models describing the real-time application, on aparticular RTOS, which permits to reduce the time-to-market on the one hand and guide the user to the selection of the appropriate RTOS from the other hand
12

Plusquellec, Titouan. "Cadre de déploiement de la méthode de Conception-Construction." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28227.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’industrie de la construction représente un secteur majeur de l’économie québécoise, soumis à une évolution perpétuelle sous la pression des progrès techniques et des enjeux sociaux. C’est en accord avec cette dynamique que de nombreuses entreprises cherchent actuellement des réponses aux problèmes de performance du mode de gestion traditionnel, mis en évidence par la baisse d’activités des dernières années, ainsi qu’aux exigences liées à l’émergence des considérations environnementales. Dans ce contexte, cette maitrise s’intéresse au cadre d’application de la méthode de Conception-Construction. Il s’agit d’une méthode d’organisation de projet de construction visant à intégrer les fonctions de design et de construction dans une unique entité chargée de la réalisation complète du projet. La contribution de cette étude est de proposer un cadre d’application ainsi qu’un outil d’aide à la décision ayant pour objectif d’aider l’utilisateur à déterminer si un projet est adapté à l’utilisation de la méthode de Conception-Construction en tenant compte des caractéristiques du projet et des entreprises impliquées. Pour atteindre cet objectif, la méthode de Conception-Construction est dans un premier temps comparée au modèle traditionnel de gestion en termes de performance budgétaire, de calendrier et de qualité, pour en déterminer les aspects positifs et négatifs. L’impact de cette méthode sur les différentes parties prenantes du projet a été ensuite considéré de façon à identifier les exigences d’une telle organisation sur les acteurs du projet. Une série d’entretiens a dès lors permis de valider les résultats précédents tout en apportant des détails supplémentaires sur les particularités de la situation québécoise, ce qui a conduit à l’élaboration du cadre d’application de la méthode. Ce cadre a finalement été traduit sous la forme d’un outil d’aide à la décision pour en faciliter l’utilisation.
The construction industry represents a major sector for the Quebec Province, subject to constant technological advances as well as social and environmental pressure. It is in line with this dynamic that many companies are currently looking for answers to the performance problems of the traditional delivery system, highlighted by the drop in activity of recent years. In this context, this research focuses on the development of a framework for the Design-Build delivery system. This system aims at integrating both design and construction competences in a single entity responsible for the entire completion of the project. In particular, the project introduces a decision support tool that may help the user to determine if a project is adapted to the use of the Design-Build delivery system, taking into account the project characteristics as well the companies involved. To develop such a tool, the Design-Build delivery system was first compared to the traditional Design-Bid-Build system in terms of cost performance, schedule and quality, to determine its positive and negative aspects. The impact of the method on the different stakeholders of the project was then considered in order to identify the requirements of such an organization on the actors of the project. A series of interviews allowed to validate the previous results while providing further details on the particularities of the Quebec situation, which led to the development of the framework for the application of the method. This framework has finally been translated into a decision support tool to facilitate its use.
13

Bissay, Aurélie. "Du déploiement d’un système PLM vers une intégration des connaissances." Thesis, Lyon 2, 2010. http://www.theses.fr/2010LYO20003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes PLM (Product Lifecycle Management) permettent une traçabilité de l'information et facilitent la réduction du cycle de développement des produits. Ils ont vocation à fédérer l'ensemble des données techniques nécessaires à l'élaboration de nouveaux produits et contribuent aussi à l'amélioration des processus de l'entreprise.Nos travaux de thèse proposent une méthodologie globale de déploiement d'un système PLM qui intègre la dimension spécifique de la capitalisation des connaissances. A partir d'une formalisation des processus métier, des éléments de connaissance sont extraits et permettent d'enrichir le modèle de données. Ce modèle s'articule autour de deux axes: un axe "information" et un axe "connaissance". Chaque axe est composé de quatre étapes : identifier, modéliser, utiliser et évaluer. L'étape d'identification permet de définir le modèle de données du système et de repérer les activités nécessitant des connaissances métier particulières. La phase de modélisation consiste à paramétrer le système pour intégrer le modèle défini dans le PLM mais également formaliser les connaissances tacites extraites. l'utilisateur intervient ensuite dans le cadre de l'utilisation du système paramétré. Enfin, nous proposons d'évaluer le système d'un point de vue de la modélisation Produit, Process, Organisation mais également d'un point de vue des connaissances générées au sein du système.L'étude de cas d'un processus d'appel d'offre de l'entreprise Marmillon SAS, sous-traitant de rang 2 dans le secteur de la plasturgie et spécialiste des processus d'injection et d'extrusion pour des pièces du secteur automobile, a permis de valider notre démarche
PLM (Product Lifecycle Management) Systems allow traceability of information and facilitate the reduction of products development cycle. Besides the aspect related to information management, they aim at bringing together all technical data needed to develop new products and also they contribute to improve business processes. Our PhD work define a methodology of PLM system deployment that incorporates the knowledge capitalization dimension. Based on a business processes formalization, elements of knowledge are extracted and used to enrich the data model. This model revolves around two axes: an "information" axis and a "knowledge"axis. Each axis is devided into four steps: identify, model, use and evaluate. The identification stage is to define the data model of the system and activities requiring specific business knowledge. The modeling phase is to configure the system to integrate the defined model in the PLM system but also to formalize extracted tacit knowledge. Then comes the user through the use of the system. Finally, we propose to evaluate the system from product, process and organization modeling but also from generated knowledge within the system. The case study of a process of bidding for the Marmillon SAS company which is a subcontractor in the field of plastics, specialist of injection and extrusion processes for automotive parts allow to validate our approach
14

Sylla, Adja Ndeye. "Support intergiciel pour la conception et le déploiement adaptatifs fiables, application aux bâtiments intelligents." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM095/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte de l’informatique pervasive et de l’internet des objets, les systèmes sonthétérogènes, distribués et adaptatifs (p. ex., systèmes de gestion des transports, bâtimentsintelligents). La conception et le déploiement de ces systèmes sont rendus difficiles par leurnature hétérogène et distribuée mais aussi le risque de décisions d’adaptation conflictuelleset d’inconsistances à l’exécution. Les inconsistances sont causées par des pannes matériellesou des erreurs de communication. Elles surviennent lorsque des actions correspondant auxdécisions d’adaptation sont supposées être effectuées alors qu’elles ne le sont pas.Cette thèse propose un support intergiciel, appelé SICODAF, pour la conception et ledéploiement de systèmes adaptatifs fiables. SICODAF combine une fiabilité comportementale(absence de décisions conflictuelles) au moyen de systèmes de transitions et une fiabilitéd’exécution (absence d’inconsistances) à l’aide d’un intergiciel transactionnel. SICODAF estbasé sur le calcul autonomique. Il permet de concevoir et de déployer un système adaptatifsous la forme d’une boucle autonomique qui est constituée d’une couche d’abstraction, d’unmécanisme d’exécution transactionnelle et d’un contrôleur. SICODAF supporte trois typesde contrôleurs (basés sur des règles, sur la théorie du contrôle continu ou discret). Il permetégalement la reconfiguration d’une boucle, afin de gérer les changements d’objectifs quisurviennent dans le système considéré, et l’intégration d’un système de détection de pannesmatérielles. Enfin, SICODAF permet la conception de boucles multiples pour des systèmesqui sont constitués de nombreuses entités ou qui requièrent des contrôleurs de types différents.Ces boucles peuvent être combinées en parallèle, coordonnées ou hiérarchiques.SICODAF a été mis en oeuvre à l’aide de l’intergiciel transactionnel LINC, de l’environnementd’abstraction PUTUTU et du langage Heptagon/BZR qui est basé sur des systèmesde transitions. SICODAF a été également évalué à l’aide de trois études de cas
In the context of pervasive computing and internet of things, systems are heterogeneous,distributed and adaptive (e.g., transport management systems, building automation). Thedesign and the deployment of these systems are made difficult by their heterogeneous anddistributed nature but also by the risk of conflicting adaptation decisions and inconsistenciesat runtime. Inconsistencies are caused by hardware failures or communication errors. Theyoccur when actions corresponding to the adaptation decisions are assumed to be performedbut are not done.This thesis proposes a middleware support, called SICODAF, for the design and thedeployment of reliable adaptive systems. SICODAF combines a behavioral reliability (absenceof conflicting decisions) by means of transitions systems and an execution reliability(absence of inconsistencies) through a transactional middleware. SICODAF is based on autonomiccomputing. It allows to design and deploy an adaptive system in the form of anautonomic loop which consists of an abstraction layer, a transactional execution mechanismand a controller. SICODAF supports three types of controllers (based on rules, on continuousor discrete control theory). SICODAF also allows for loop reconfiguration, to dealwith changing objectives in the considered system, and the integration of a hardware failuredetection system. Finally, SICODAF allows for the design of multiple loops for systems thatconsist of a high number of entities or that require controllers of different types. These loopscan be combined in parallel, coordinated or hierarchical.SICODAF was implemented using the transactional middleware LINC, the abstractionenvironment PUTUTU and the language Heptagon/BZR that is based on transitionssystems. SICODAF was also evaluated using three case studies
15

Laure, Pichot. "Stratégie de déploiement d'outils de pilotage de chaines logistiques : Apport de la classification." Phd thesis, INSA de Lyon, 2006. http://tel.archives-ouvertes.fr/tel-00159155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur les apports de la classification dans le cadre du déploiement des chaînes logistiques dans un groupe industriel.
Le modèle SCOR-model est une base de référence de processus standard qui a été utilisée pour le déploiement du Supply Chain Management. Il a notamment servi de base pour la description des processus et pour la détermination des variables quantitatives et qualitatives utilisables dans la classification d'objets autour du thème des chaînes logistiques.
Sur le cas de Rhodia (multinationale produisant plusieurs dizaines de milliers de produits avec plus d'une centaine de sites sur quatre continents), nous avons appliqué différentes méthodes de classification afin d'accélérer et de faciliter le déploiement du Supply Chain Management.
Parmi ces outils, nous avons utilisé les arbres de décision pour établir des classes de produits relativement à leur méthode de gestion et la méthode des nuées dynamiques pour définir des classes d'entreprises relativement à leurs caractéristiques propres à la gestion de la chaîne logistique.
Ces classifications ont servi de base au déploiement des logiques de pilotage et de SAP sur l'ensemble des entreprises du groupe.
A posteriori, nous pouvons constater le gain de temps qu'elles ont occasionné en permettant d'offrir un éventail de solutions prédéterminées, adaptables à chaque entreprise du groupe.
Le fait d'avoir réussi un développement du concept de gestion des chaînes logistiques et l'implantation de SAP sur un groupe de cette taille en un temps si court est en soit une validation de l'approche.
16

Borges, Da Silva Filho Alvim. "Le déploiement des systèmes logistiques de distribution du gaz naturel : une analyse financière et stratégique par les options réelles du système GNC." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX24008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse est structurée en cinq chapitres. Le premier chapitre met en évidence le contexte actuel du marché de l’énergie et du GN sur lequel porte la recherche. L’histoire du marché du GN est présentée en focalisant la distribution, où les nouvelles règles édictées pour l’ensemble du marché de l’énergie, ont créé un nouvel environnement concurrentiel. Celui-ci est le résultat du changement de structure du secteur, passé d’un monopole public à la compétition privée. On ymontre le besoin d’outils de gestion plus performants, tels que les options réelles. De même, on peut voir que les systèmes de distribution flexibles deviennent un atout important pour le déploiement d’un réseau de distribution.Le deuxième chapitre présente la structure générale de la recherche empirique. Il discute l’épistémologie de la recherche et l’approche abductive qui y est utilisée. Cette dernière, basée sur Thiétart (2001), permet que la recherche puisse avanceravec les interactions entre le terrain de recherche et la théorie de façon simultanée. On montre aussi que l’approche méthodologique systématique (Grawitz, 2001) est celle qui s’adapte le mieux à la recherche.Le troisième chapitre expose le cadre d’analyse de la recherche. Il exploite les aspects importants de l’approche par les options réelles pour l’analyse du système de distribution de GN. L’objectif ici est de montrer l’état de la recherche sur lesoptions réelles et les contributions que l’approche optionnelle peut offrir à la gestion de la distribution du GN
The thesis is structured in five chapters. The first chapter brings to light the current context of the market of the energy and the GN which the research concerns. The history of the market of the GN is presented by focusing the distribution, where the new rules promulgated for the whole market of the energy, created a new competitive environment.This one is the result of the change of structure of the sector, go from a public monopoly to the private competition. We show the more successful need of management tools, such as the real options.Also, we can see that the flexible systems of distribution become an asset important for the deployment of a distribution network. The second chapter presents the general structure of the empirical research. It discusses the epistemology of the research and the abductive approach which is used there. This last one, based on Thiétart ( 2001 ), allows that the research can advance with the interactions enter the ground of research And the theory in a simultaneous way. We also show that the systematic methodological approach (Grawitz,2001) is the one which adapts itself best to the research.The third chapter exposes the frame of analysis of the research. It exploits the important aspects of the approach by the real options for the analysis of the system of distribution of GN. The objective here is to show the state of the research on the real options and the contributions which the optional approach can offer to the management of the distribution of the GN
17

Piette, Ferdinand. "Intergiciel agent pour le déploiement et la configuration d'applications distribuées dans des environnements ambiants." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066058.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des technologies de l'information ainsi que la miniaturisation constante des composants électroniques de ces dernières décennies ont permis de doter les objets de la vie de tous les jours de capacités de calcul et de communication. Ces objets connectés sont disséminés dans l'environnement de l'utilisateur et coopèrent les uns avec les autres afin de fournir à l'utilisateur des services intelligents de manière totalement transparente et non intrusive. Ces environnements sont caractérisés par une grande hétérogénéité ainsi qu'une grande dynamicité. Les intégrations dites verticales (les données des capteurs sont externalisées sur les serveurs d'une entreprise) permettent certes une interopérabilité plus importante, mais engendrent des problèmes de saturation des canaux de communication, ainsi que des questionnements sur la sécurité et la confidentialité de des informations. Pour pallier ces problèmes, les intégrations dites horizontales (les entités matérielles sont mises en relation directement au sein de l'infrastructure) sont encouragées. Dans cette thèse, nous adressons le problème du déploiement et de la configuration automatique d'applications au sein de tels environnements ambiants. Nous proposons des mécanismes permettant, à partir d'une description de l'environnement ambiant, la sélection et la configuration d'entités matérielles qui supporteront l'exécution des applications. Ces mécanismes ont été encapsulé dans un intergiciel basé sur le paradigme Multi-agents dans lequel les différents agents logiciels du système collaborent afin de sélectionner les entités de l'infrastructure respectant les besoins et les contraintes des applications à déployer
Research domains like Ambient Intelligence or Internet of Things came up in the early 2000’s with the technologic improvement and the ongoing miniaturization of electronic devices. These electronic and information devices are scattered in the user’s environment, can communicate and exchange data more and more easily to provide intelligent and non-intrusive services to the users. However, it is difficult to have generic implementations of these applications. These difficulties are due the the high heterogeneity and dynamicity of the ambient environments. Vertical integrations of connected devices (data exchanges from the devices to external servers) allow more interoperability but generate overloads of the communication channels and privacy concerns. To prevent these problems, horizontal approaches (connected devices communicate directly together through the hardware infrastructure) have to be encouraged. In this thesis work, we address the problem of the automatic deployment and configuration of distributed applications in these ambient environments. We propose mechanisms that allow, from a description of the environment, the selection and the configuraion of the hardware entities that will support the execution of applications. These mechanisms are encapsulated in a middleware based on the multi-agent paradigm. The different agents of the system cooperate in order to select the right hardware entities that respects the requirements and the constraints of the applications we want to deploy
18

Pouillon, Nicolas. "Modèle de programmation pour applications parallèles multitâches et outil de déploiement sur architecture multicore à mémoire partagée." Paris 6, 2011. http://www.theses.fr/2011PA066389.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une méthode de conception conjointe matérielle/logicielle de systèmes multiprocesseurs intégrés sur puce (MP-SoC) et l’outil DSX l'implémentant. Par la place qu’ils occupent, les systèmes sur puce nécessitent une optimisation de leur performance et leur consommation. Dans ce but, les SoC sont aujourd’hui équipés de plusieurs processeurs, généralement hétérogènes car optimisés pour une tâche donnée. Pour tirer le meilleur parti du système, la plateforme matérielle et le logiciel du système doivent être développés conjointement. Le cycle de développement d’un SoC impose de faire de nombreux choix architecturaux. Ils portent sur l'ensemble de la structure de l'application et de son déploiement. La méthode de conception proposée repose le prototypage virtuel pour modéliser le système complet. Le prototype est constitué d’une plateforme matérielle réaliste, construite à l’aide de la bibliothèque de composants SoCLib. Elle héberge une application supportée par le système d’exploitation MutekH. L’outil DSX assiste le concepteur en générant le prototype virtuel et logiciel embarqué à partir d’une description de haut niveau. Des méthodes et outils d’instrumentation et d’analyse puissants s’intègrent tant au niveau logiciel que matériel. Ils permettent au concepteur de mieux comprendre les conséquences de ses choix architecturaux. Les résultats obtenus montrent la capacité de DSX à décrire un grand nombre d’applications différentes ainsi qu’une facilité d’exploration architecturale et d’analyse des résultats obtenus. Ils confirment ainsi l’efficacité de la méthode.
19

Faye, Maurice-Djibril. "Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL1036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines)
We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on
20

Etchevers, Xavier. "Déploiement d'applications patrimoniales en environnements de type informatique dans le nuage." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00875559.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.
21

Boutonnet, Arnaud. "Déploiement optimal contraint et robuste de satellites volant en formation invariante." Toulouse, ENSAE, 2003. http://www.theses.fr/2003ESAE0021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objet principal de cette thèse est de résoudre l’une des phases de reconfiguration de satellites volant en formation : le déploiement. L'originalité du travail consiste à proposer des solutions optimales sous forme analytique qui prennent en compte les contraintes (plate-forme, risque de collision). Ces solutions analytiques permettent alors de faire très rapidement des études d’analyse mission. Le domaine d’application est la classe des formations géocentriques invariantes. Grâce à leur géométrie fixe au cours d’une révolution, ces formations sont utiles pour diverses missions : l'interférométrie radar ainsi que la synthèse d’antenne passive et active sont les plus intéressantes. La thèse est ainsi divisée en trois parties complémentaires : Positionnement du sujet : une classification originale des missions et des problèmes de guidage associés est proposée. A partir de cette classification, un nouveau modèle définissant une classe particulière, celle des formations invariantes, est développé. Déploiement optimal contraint pour les formations invariantes : la loi de guidage à consommation minimale est obtenue sous forme analytique par la méthode du Primer Vector. L’ utilisation combinée des conditions nécessaires d’optimalité fournies par le Primer Vector et de la méthode des Variations de Paramètres permet de prendre en compte des contraintes sur la commande tout en obtenant la solution optimale. La collision entre chaque satellite et le dernier étage du lanceur résultant de la solution optimale est évitée par l'adjonction puis l’optimisation d’une manœuvre d'injection du lanceur. Robustesse de la solution : le risque de collision découlant de l'introduction des dispersions sur l’application des manœuvres est limité par l'introduction d'une loi de commande innovante. Les distances minimales obtenues pour le cas non dispersé sont quasiment retrouvées moyennant une légère surconsommation d’érgols. Quant à l'imprécision du déploiement due à l'introduction des perturbations orbitales, elle est maîtrisée par la modification de la stratégie d’injection. Les caractéristiques du déploiement non perturbé sont alors retrouvées avec un très faible surcoût en ergols. Des travaux complémentaires sur le déploiement des formations géocentriques périodiques et le maintien à poste des formations géocentriques non-kepleriennes sont en outre présentés.
22

Génevé, Lionel. "Système de déploiement d'un robot mobile autonome basé sur des balises." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans le cadre d’un projet visant à développer un robot mobile autonome capable de réaliser des tâches spécifiques dans une zone préalablement définie par l’utilisateur. Afin de faciliter la mise en œuvre du système, des balises radiofréquences fournissant des mesures de distance par rapport au robot sont disposées au préalable autour du terrain. Le déploiement du robot s’effectue en deux phases, une première d’apprentissage du terrain, puis une seconde, où le robot effectue ses tâches de façon autonome. Ces deux étapes nécessitent de résoudre les problèmes de localisation et de localisation et cartographie simultanées pour lesquels différentes solutions sont proposées et testées en simulation et sur des jeux de données réelles. De plus, afin de faciliter l’installation et d’améliorer les performances du système, un algorithme de placement des balises est présenté puis testé en simulation afin de valider notamment l’amélioration des performances de localisation
This thesis is part of a project which aims at developing an autonomous mobile robot able to perform specific tasks in a preset area. To ease the setup of the system, radio-frequency beacons providing range measurements with respect to the robot are set up beforehand on the borders of the robot’s workspace. The system deployment consists in two steps, one for learning the environment, then a second, where the robot executes its tasks autonomously. These two steps require to solve the localization and simultaneous localization and mapping problems for which several solutions are proposed and tested in simulation and on real datasets. Moreover, to ease the setup and improve the system performances, a beacon placement algorithm is presented and tested in simulation in order to validate in particular the improvement of the localization performances
23

Marchal, Xavier. "Architectures et fonctions avancées pour le déploiement progressif de réseaux orientés contenus." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les protocoles historiques d’Internet (TCP/IP) qui servaient à interconnecter les tous premiers ordinateurs ne sont plus adaptés à la diffusion massive de contenus qui en est fait aujourd’hui. De nouveaux protocoles réseau centrés sur les contenus (Information-Centric Networking) sont actuellement conçus pour optimiser ces échanges en pariant sur un changement de paradigme où les contenus, plutôt que les machines sont adressables à l’échelle d’Internet. Cependant, un tel changement ne peut se faire que progressivement et si tous les impératifs opérationnels sont assurés. Ainsi, cette thèse a pour objectif d’étudier et de lever les principaux verrous technologiques empêchant l’adoption du protocole NDN (Name Data Networking) par les opérateur en garantissant la sécurité, les performances, l’interopérabilité, la bonne gestion et le déploiement automatisé d’un réseau NDN. Dans un premier temps, nous évaluons les performances actuelles d’un réseau NDN à l’aide d’un outil de notre conception, ndnperf, et constatons le coût élevé pour un serveur utilisant ce protocole. Puis nous proposons un ensemble de solutions pour améliorer l’efficacité d’un serveur NDN pouvant être jusqu’à 6,4 fois plus efficient que les paramètres de base. Ensuite nous nous intéressons à la sécurité de NDN à travers l’évaluation de l’attaque par empoisonnement de contenus, connue pour être critique mais jamais caractérisée. Cette étude se base sur deux scénarios, en utilisant un serveur et un client pour effectuer la pollution, ou en exploitant une faille dans le traitement des paquets au niveau du routeur. Nous montrons ainsi la dangerosité de l’attaque et proposons une correction de la faille la permettant. Dans un troisième temps, nous cherchons à adapter le protocole HTTP pour qu’il puisse être transporté sur un réseau NDN à des fins d’interopérabilité. Pour ce faire, nous avons développé deux passerelles qui effectuent les conversions nécessaires pour qu’un contenu web puisse rentrer ou sortir d’un réseau NDN. Après avoir décrit notre solution, nous l’évaluons et l’améliorons afin de pouvoir bénéficier d’une fonctionnalité majeure de NDN, à savoir la mise en cache des contenus dans le réseau à hauteur de 61,3% lors de tests synthétiques et 25,1% lors de simulations de navigation avec plusieurs utilisateurs utilisant une loi Zipf de paramètre 1,5. Pour finir, nous proposons une architecture à base de microservices virtualisés et orchestrés pour le déploiement du protocole NDN en suivant le paradigme NFV (Network Function Virtualization). Les sept microservices présentés reprennent soit une fonction atomique du routeur, soit proposent un nouveau service spécifique. Ces fonctions peuvent ensuite être chaînées pour constituer un réseau optimisé. Cette architecture est orchestrée à l’aide d’un manager qui nous permet de pleinement tirer parti des avantages des microservices comme la mise à l’échelle des composants les plus lents ou encore le changement dynamique de topologie en cas d’attaque.Une telle architecture, associée aux contributions précédentes, permettrait un déploiement rapide du protocole NDN, notamment grâce à un développement facilité des fonctions, à l’exécution sur du matériel conventionnel, ou encore grâce à la flexibilité qu’offre ce type d’architecture
Internet historical protocols (TCP/IP) that were used to interconnect the very first comput-ers are no longer suitable for the massive distribution of content that is now being made. New content-based network protocols (Information-Centric Networking) are currently being designed to optimize these exchanges by betting on a paradigm shift where content, rather than machines, are addressable across the Internet. However, such a change can only be made gradually and if all operational imperatives are met. Thus, this thesis aims to study and remove the main tech-nological obstacles preventing the adoption of the NDN (Name Data Networking) protocol by operators by guaranteeing the security, performance, interoperability, proper management and automated deployment of an NDN network. First, we evaluate the current performance of an NDN network thanks to a tool we made, named ndnperf, and observe the high cost for a provider delivering fresh content using this protocol. Then, we propose some optimizations to improve the efficiency of packet generation up to 6.4 times better than the default parameters. Afterwards, we focus on the security of the NDN protocol with the evaluation of the content poisoning attack, known as the second more critical attack on NDN, but never truly characterized. Our study is based on two scenarios, with the usage of a malicious user and content provider, or by exploiting a flaw we found in the packet processing flow of the NDN router. Thus, we show the danger of this kind of attacks and propose a software fix to prevent the most critical scenario. Thirdly, we are trying to adapt the HTTP protocol in a way so that it can be transported on an NDN network for interoperability purposes. To do this, we designed an adaptation protocol and developed two gateways that perform the necessary conversions so that web content can seamlessly enter or exit an NDN network. After describing our solution, we evaluate and improve it in order to make web content benefit from a major NDN feature, the in-network caching, and show up to 61.3% cache-hit ratio in synthetic tests and 25.1% in average for browsing simulations with multiple users using a Zipf law of parameter 1.5. Finally, we propose a virtualized and orchestrated microservice architecture for the deploy-ment of an NDN network following the Network Fonction Virtualization (NFV) paradigm. We developed seven microservices that represent either an atomic function of the NDN router or a new one for specific purposes. These functions can then be chained to constitute a full-fledged network. Our architecture is orchestrated with the help of a manager that allows it to take the full advantages of the microservices like scaling the bottleneck functions or dynamically change the topology for the current needs (an attack for example). Our architecture, associated with our other contributions on performance, security and in-teroperability, allows a better and more realistic deployment of NDN, especially with an easier development of new features, a network running on standard hardware, and the flexibility allowed by this kind of architecture
24

Le, Saux Cédric. "Modélisation numérique du pliage et du déploiement de systèmes spatiaux avec prise en compte des contacts et des frottements : cas des systèmes de tenségrité." Montpellier 2, 2002. http://www.theses.fr/2002MON20152.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Kamni, Soulimane. "Un framework d’aide au déploiement et à la personnalisation des systèmes temps réel : application aux autopilotes de drones." Electronic Thesis or Diss., Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2023. http://www.theses.fr/2023ESMA0014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la conception des systèmes embarqués temps réel critiques. Elle se concentre plus particulièrement sur la phase cruciale de déploiement, où les fonctions du système sont allouées aux tâches logicielles. La thèse débute par une présentation approfondie du contexte des systèmes embarqués temps réel, de leurs spécificités et de leur cycle de vie logiciel. Puis, le domaine de l’ordonnancement temps réel est introduit, en détaillant les modèles de tâches, les algorithmes d’ordonnancement et les tests de validation temporelle. Sur ces bases, deux contributions originales sont proposées pour faciliter le déploiement dans un contexte où les informations sur le comportement temporel des fonctions restent limitées. La première est la méthode RYM, une technique de pré-déploiement des systèmes mono-processeur basée sur les rythmes d’activation. Un outil logiciel est également développé pour valider cette approche. La seconde contribution est un framework pour extraire, modéliser et analyser l’architecture interne des autopilotes open-source de drones à partir du code source. Ce framework est appliqué pour adapter une technique avancée d’ordonnancement à l’autopilote Paparazzi. Ces deux contributions apportent des réponses au problème difficile du déploiement des systèmes embarqués critiques avec des informations partielles. Elles s’appuient toutes les deux sur des développements de prototypes ouverts basés ingénierie dirigée par les modèles, permettant une adaptation rapide à d’autres outils d’analyse
This thesis focuses on the design of real-time critical embedded systems. It concentrates more specifically on the crucial deployment phase, where system functions are allocated to software tasks.The thesis begins with an in-depth presentation of the context of real-time embedded systems, their specificities and their software life cycle. Then, the field of real-time scheduling is introduced, detailing task models, scheduling algorithms and timing validation tests. On these foundations, two original contributions are proposed to facilitate deployment in a context where information on the temporal behavior of functions remains limited. The first is the RYM method, a single-processor pre-deployment technique based on activation rhythms. A software tool is also developed to validate this approach. The second contribution is a framework to extract, model and analyze the internal architecture of open-source drone autopilots from the source code. This framework is applied to adapt an advanced scheduling technique to the Paparazzi autopilot. These two contributions provide answers to the difficult problem of deploying critical embedded systems with partial information. They are both based on open prototyping developments based on model-driven engineering, allowing rapid adaptation to other analysis tools
26

Darwish, Molham. "Architecture et déploiement de services d'aide à la personne." Thesis, Lorient, 2016. http://www.theses.fr/2016LORIS411/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le vieillissement de la population européenne a encouragé la communauté à favoriser larecherche de solutions pour soutenir cette évolution. Dans ce contexte, plusieurs questions (liéesaux services de soins de santé et aux établissements de santé, coûteux, et à capacités limitées)doivent être abordées.Ainsi, plusieurs projets de recherche et des solutions industrielles ont été proposés pour remédier àces problèmes. La plupart de ces solutions sont basées sur l'utilisation des derniers développementstechniques en matière de TIC permettant ainsi de fournir des solutions qui améliorent le bien-êtredes personnes âgées et de garantir leur indépendance dans leurs propres espaces de vie. Lessolutions technologiques fournies doivent être garanties contre les défauts potentiels deséquipements qui peuvent conduire à l'échec des systèmes et avoir un impact sur les besoins etl'indépendance des utilisateurs.Dans ce travail, nous proposons une représentation du système d'automatisation de la maison, surla base des besoins qui consiste à fournir des solutions continues et viables et répondant auxattentes des utilisateurs (tout en assurant la disponibilité des services des systèmes).Dans cet objectif, nous proposons de développer un cadre de modélisation représentant lesystème reconfigurable domotique et permettant l'examen de l'approche de la tolérance depanne, sur la base de la définition de scénarios alternatifs (assurant la délivrance continue desservices). Dans ce workflow, nous décrivons les éléments structurels du système (décrits commedes services et composants) en vue de la modélisation conceptuelle. Des règles de transformationde modèle permettent de générer un modèle d'analyse et un modèle de comportement. Lemodèle d'analyse permet de prendre une décision à propos de la sélection des élémentsalternatifs pour remplacer les éléments défectueux. Ce modèle d'analyse est défini sur la base dela notion d'approche d’arbre de défaillances, qui adopte la probabilité d'échec descomposantes pour évaluer l’état global du système considéré. Le modèle de comportement estresponsable de la simulation de l'exécution des services du système pour assurer que les scénariosconduisent à la délivrance du système.Par ailleurs, nous proposons de définir une caractéristique permettant d’évaluer l'importanceempirique (vue par le concepteur) des composantes d'un système dans le cadre d’un servicedonné. Ensuite, nous proposons une nouvelle approche, fondée sur l'intégration du facteur del'importance dans l'approche d’arbre de défaillances pour étudier la criticité du composant, encas d'échec, ainsi que la continuité de service. Un cadre de validation expérimentale, basé surplusieurs objectifs de validation est finalement proposé pour conclure ce travail de recherche
The ageing of the European population encouraged the community to search for solutions tosupport this evolution. In this context, several issues (related to the expensive and limited healthcare services and health facilities capacities) need to be addressed.Thus, several projects, research and industrial solutions have been proposed to address these issues.Most of these projects and industrial developments are based on the use of the latest ICT technicaldevelopments to provide solutions that ameliorate the well-being of the targeted ageing groupand to guaranty their independence in their own living spaces. The provided technologicalsolutions need to be guaranteed against potential faults which may lead to the systems failure andimpact the users’ needs and independency.In this work, we propose a home automation system representation, based on the user’s needs toprovide continuous and viable solutions that meets the users’ expectations, and ensuring theavailability of system’s services.For this goal, we propose to develop an integrated modeling framework allowing therepresentation of the home automation reconfigurable system with the consideration of a faulttolerance approach (based on the alternative definition of scenarios of system servicesdeliverance).In the proposed workflow, we describe the system structural elements (described as services andcomponents) in the design modeling view, and, we lead model transformation rules allowinggenerating an analysis model and a behavior model. The analysis model allows making a decisionabout the alternative elements selection in order to substitute the faulty elements. The analysismodel definition is based on the notion of Fault Tree Analysis approach (adopting the probabilityof events failure in order to evaluate a given system status).The behavior model is in charge of simulating the execution of the system services ensuring, thus,that the proposed scenarios lead to system services deliverance.Moreover, we propose to define an expert based feature measuring the importance of a system’scomponent within the service context. In this framework, we propose a new approach, based onthe joint integration of the importance factor into the Fault Tree Analysis approach in order to studythe criticality of the component, in case of failure, on the service continuity.We propose an experimental validation framework, based on several validation objectives toevaluate the proposed work in this research
27

Gomez, Pascal. "Outils pour le déploiement d'applications avec des contraintes du temps réel sur des multiprocesseurs sur puces." Paris 6, 2006. http://www.theses.fr/2006PA066114.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Heusch, Michael. "Modélisation et résolution d'une application d'aide au déploiement d'antennes radio en programmation par contraintes sur le discret et le continu." Nantes, 2006. http://www.theses.fr/2006NANT2003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La programmation par contraintes rencontre depuis le milieu des années 90 un certain succès dans la résolution d'applications combinatoires complexes. Son extension aux contraintes d'intervalles est une approche prometteuse pour traiter des contraintes non-linéaires. La résolution de systèmes hybrides discrets-continus est pour autant restée essentiellement inexplorée. Cette thèse exploite un modele hybride pour s'attaquer à une application en permettant d'éviter la discrétisation du problème. Les deux problèmes traités sont les suivants : 1. Contraintes globales continues : la définition de contraintes globales a permis d'améliorer substantiellement l'expressivitéet l'efficacité des solveurs de contraintes discrets. Nous spécifions ici une premièe contrainte globale dans un solveur continu. Elle maintient des contraintes de distance euclidienne entre n points par un algorithme géométrique. 2. Résolution d'une application hybride discrète-continue : l'aide au déploiement d'antennes radio est un méissage du problemes d'allocation de fréquences radio et d'un problème d'analyse de localisation. Nous utilisons notre contrainte globale de distance euclidienne pour obtenir une résolution hybride discrète-continue efficace de ce problème
Since the mid 90's constraint programming has proved successful in solving complex combinatorial applications. Its extension to interval constraints is a promising approach to handle non-linear constraints. However, the solving of discrete-continuous hybrid systems has remained mostly unexplored. This thesis takes advantage of a hybrid model to tackle an application while avoiding the discretization of this problem. Two main issues are adressed : 1. Continuous global constraints: the introduction of global constraints has substantially enhanced the expressiveness and efficiency of discrete constraint solvers. We specify a continuous global constraint in a continuous solver. It maintains Euclidean distance constraints between n points by means of a geometric algorithm. 2. Solving of a discrete-continuous hybrid application: deployment support of radio antennas is a crossbreeding between a radio link frequency assignment problem and a location analysis problem. Our Euclidean distance global constraint enables us to obtain an efficient discrete-continuous hybrid resolution of this problem
29

Etchevers, Xavier. "Déploiement d’applications patrimoniales en environnements de type informatique dans le nuage." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM100/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing
Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: • a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; • an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; • mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations
30

Hammami, Emir. "Déploiement sensible au contexte et reconfiguration des applications dans les sessions collaboratives." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00206285.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le déploiement sensible au contexte et la reconfiguration des applications dans les sessions collaboratives sont les processus permettant de gérer la distribution initiale et ultérieure des outils collaboratifs sur les nSuds des participants en prenant en compte diverses contraintes. Ces contraintes proviennent de la structure de la session, des environnements d'exécution et des relations entre les participants. La majorité des travaux liés au déploiement et à la reconfiguration proposent des solutions qui couvrent essentiellement les deux premiers points mais qui n'accordent pas beaucoup d'importance au dernier point. Ainsi, les applications déployées couvrent les besoins des utilisateurs et sont compatibles avec le contexte local mais l'interopérabilité avec les applications déjà déployées sur les nSuds des voisins n'est pas vérifiée. De plus, le contrôle du déploiement et la découverte des applications requises se fait de façon centralisée et nécessite l'intervention humaine. Nous proposons une approche de déploiement et de reconfiguration automatique basée sur un algorithme décentralisé qui s'exécute sur chaque nSud de déploiement. Cet algorithme utilise des modèles abstraits pour générer des configurations de déploiement valides permettant de respecter les diverses contraintes. Nous avons développé une plate-forme Pair-à-Pair offrant des modules génériques pour supporter cet algorithme. Enfin, nous avons réalisé des prototypes et nous avons mené des tests de performance afin d'évaluer expérimentalement notre approche.
31

Zhao, Yimeng. "Déploiement du switch logiciel dans SDN-enabled Réseau environnement de virtualisation." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec la prévalence de logicielisation, virtualisation est devenue une technologie dominante dans des data-centres et clouds. Deux aspects principaux de la logicielisation de réseaux sont Software Defined Network (SDN) et Network Function Virtualization (NFV), dont un des outils essentiel sont les switches logiciels, à l’opposition des switches matériaux. Les switches logiciels sont également indispensables pour le succès de NFV. Cette thèse vise à relever des défis principaux dans la logicielisation de réseaux. Spécifiquement, elle porte sur le déploiement des switches logiciels dans un réseau virtuel avec SDN
Due to the growing trend of “Softwarization”, virtualization is becoming the dominating technology in data center and cloud environment. Software Defined Network (SDN) and Network Function Virtualization (NFV) are different expressions of “Network Softwarization”. Software switch is exactly the suitable and powerful tool to support network softwarization, which is also indispensable to the success of network virtualization. Regarding the challenges and opportunities in network softwarization, this thesis aims to investigate the deployment of software switch in a SDN-enabled network virtualization environment
32

Piette, Ferdinand. "Intergiciel agent pour le déploiement et la configuration d'applications distribuées dans des environnements ambiants." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066058/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des technologies de l'information ainsi que la miniaturisation constante des composants électroniques de ces dernières décennies ont permis de doter les objets de la vie de tous les jours de capacités de calcul et de communication. Ces objets connectés sont disséminés dans l'environnement de l'utilisateur et coopèrent les uns avec les autres afin de fournir à l'utilisateur des services intelligents de manière totalement transparente et non intrusive. Ces environnements sont caractérisés par une grande hétérogénéité ainsi qu'une grande dynamicité. Les intégrations dites verticales (les données des capteurs sont externalisées sur les serveurs d'une entreprise) permettent certes une interopérabilité plus importante, mais engendrent des problèmes de saturation des canaux de communication, ainsi que des questionnements sur la sécurité et la confidentialité de des informations. Pour pallier ces problèmes, les intégrations dites horizontales (les entités matérielles sont mises en relation directement au sein de l'infrastructure) sont encouragées. Dans cette thèse, nous adressons le problème du déploiement et de la configuration automatique d'applications au sein de tels environnements ambiants. Nous proposons des mécanismes permettant, à partir d'une description de l'environnement ambiant, la sélection et la configuration d'entités matérielles qui supporteront l'exécution des applications. Ces mécanismes ont été encapsulé dans un intergiciel basé sur le paradigme Multi-agents dans lequel les différents agents logiciels du système collaborent afin de sélectionner les entités de l'infrastructure respectant les besoins et les contraintes des applications à déployer
Research domains like Ambient Intelligence or Internet of Things came up in the early 2000’s with the technologic improvement and the ongoing miniaturization of electronic devices. These electronic and information devices are scattered in the user’s environment, can communicate and exchange data more and more easily to provide intelligent and non-intrusive services to the users. However, it is difficult to have generic implementations of these applications. These difficulties are due the the high heterogeneity and dynamicity of the ambient environments. Vertical integrations of connected devices (data exchanges from the devices to external servers) allow more interoperability but generate overloads of the communication channels and privacy concerns. To prevent these problems, horizontal approaches (connected devices communicate directly together through the hardware infrastructure) have to be encouraged. In this thesis work, we address the problem of the automatic deployment and configuration of distributed applications in these ambient environments. We propose mechanisms that allow, from a description of the environment, the selection and the configuraion of the hardware entities that will support the execution of applications. These mechanisms are encapsulated in a middleware based on the multi-agent paradigm. The different agents of the system cooperate in order to select the right hardware entities that respects the requirements and the constraints of the applications we want to deploy
33

Plainchault, Mélanie. "Conception de protocoles DDF pour le déploiement de relais auto-configurables." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous avons proposé et étudié une implémentation pratique du protocole DDF pour des relais auto-configurables au niveaux lien et système. Cette implémentation pratique, basée sur du codage correcteur d'erreur et une segmentation de la trame émise (comme pour les mécanismes d'HARQ), est combinée avec différents schémas de relayage tels que le Monostream, l'Alamouti Distribué ou encore les Rotations Distribuées.Nous avons montré que ces trois schémas atteignent les mêmes ordres de macro et micro diversité. L'ordre de micro diversité se réfère au gain qui peut être acquis via les coefficients d'évanouissement court-terme. Nous avons défini l'ordre de macro diversité comme le nombre de sources desquelles toute l'information peut être entièrement décodée sans l'aide des autres sources. De plus, nous avons prouvé que les trois schémas de relayage permettent d'atteindre de meilleures performances que le cas sans relais, leurs performances ne diffèrent qu'en terme de gain de codage: le DA DDF a de meilleure performance que le DR DDF, qui lui-même à de meilleures performances que le Monostream DDF. Cependant, les évaluations système ont montré que ce gain de codage n'est pas significatif au niveau système. Cela montre que la métrique pertinente à optimiser pour améliorer les performances est l'ordre de macro diversité atteignable par le protocole; c'est à dire que le gain le plus important apporté par le relayage est un gain de rapport signal à bruit long-terme. Nous avons donc proposé la technique de Patching pour augmenter l'ordre de macro diversité atteignable par une transmission. Cette technique vise à augmenter le nombre de bits transmis par le relais jusqu'au nombre de bits d'information contenus dans le message. Quand cette technique de Patching est combinée aux codes spatio-temporels, elle permet d'améliorer à la fois l'ordre de macro diversité et l'ordre de micro diversité. Cette technique de Patching a aussi été utilisée sur le canal à interférence et relais pour lequel nous avons introduit l'usage d'un protocole DDF précodé par un relais partagé par plusieurs paires source/destination. Dans ce cas, le Patching a pour but d'améliorer les performances par rapport au cas avec précodeur uniquement, et ce en maximisant le nombre de symboles précodés par relais. Les gains résultants de ces nombreuses variations de notre implémentation pratique du protocole DDF sont finalement décrits au niveau système pour un déploiement macro-cellulaire en zone urbaine, et pour un déploiement indoor, en considérant deux applications : une transmission unicast, par exemple du téléchargement sur internet, ou encore de la diffusion, de la télévision par exemple. Les résultats montrent que le Monostream DDF permet d'atteindre de bonnes performances tout en garantissant que la source et la destination n'ont pas conscience de la présence du relais dans le système. Par conséquent, ce protocole est un candidat intéressant pour le déploiement massif de relais auto-configurables dans les réseaux sans fil
Relaying has been proposed as an efficient solution to increase transmission reliability by providing spatial diversity, and to increase transmission efficiency. Among the wide variety of existing relaying protocols proposed for the relay channel, we are interested in the Dynamic Decode and Forward (DDF) protocol as it outperforms all previously defined forwarding strategies in terms of Diversity Multiplexing Tradeoff. When using the DDF protocol, the relay assits the transmission only if it correctly decodes the sent message before the destination. We propose a practical implementation of this DDF protocol based on channel coding for hybrid automatic repeat request.Then, we define and study two relaying schemes for the relay channel that can be used when the source is relay-unaware: the Monostream scheme and the Distributed Alamouti scheme. The performance of these proposed relaying schemes for the DDF protocol are derived for open-loop and closed-loop transmissions. After defining the macro diversity order achieved by a transmission, we derived upper bounds on the achievable macro and micro diversity orders of these DDF protocols when the transmitting nodes use finite symbol alphabet. We proposed a so-called Patching technique in order to increase this achievable macro diversity order still guaranteeing that the source is relay-unaware. This Patching technique aims at increasing the number of bits transmitted by the relay up to the number of information bits in the message. This technique is also combined with Space Time Block Codes in order to improve both the achievable macro and micro diversity orders. This Patching technique has also been applied over the Interference Relay Channel where we introduce the use of a precoded DDF protocol at a relay shared by several source/destination pairs. We use the Patching technique in order to increase the achieved performance. The gain resulting from the use of these various derivations of the DDF protocol are finally observed at the system level for two scenarios: a macro cellular network over urban area and an indoor network, combined with two applications: a unicast transmission, e.g., web browsing, and a broadcasting transmission, e.g., video broadcasting. The results show that the Monostream relaying scheme for the DDF protocol provides good performance while allowing both the source and the destination to be relay-unaware. Consequently, the Monostream DDF is a promising protocol for the deployment of plug-and-play relays in wireless systems
34

Ahmed, Nacer Amina. "Contributions au déploiement sécurisé de processus métiers dans le cloud." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant
The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
35

Merle, Noëlle. "Architecture pour les systèmes de déploiement logiciel à grande échelle : prise en compte des concepts d'entreprise et de stratégie." Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10259.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le déploiement arrive en fin de cycle de vie du logiciel. Cette étape a pris une grande importance dans les entreprise ayant un grand nombre de machines à gérer : on parle alors de déploiement à grande échelle. Les entreprises souhaitent pouvoir automatiser cette étape, pour éviter d'avoir à répéter les mêmes étapes plusieurs fois. Cependant, elles souhaitent garder un certain contrôle sur les activités de déploiement, en imposant différentes contraintes (même version d'une application sur un groupe de machines, préférence pour des applications avec certaines caractéristiques, ordonnancement prioritaire,. . . ). Dans notre travail, nous définissons un méta-modèle de déploiement permettant d'automatiser le traitement des données liées au déploiement. Nous définissons aussi des stratégies de déploiement qui permettent aux entreprises de définir leur propres contraintes de déploiement, selon leurs besoins et leurs préférences
Deployment comes at the end of software lifecycle. This step is more and more important in enterprises managing a lot of machines : we speak about large scale deployment. Enterprises wants to automate this step, in order to not repeat the same steps several times. However they wishes to keep control on deployment activities, forcing different constraints (same version of an application on a group of machines, preference for applications with fixed characteristics, specific scheduling,. . . ). In our work, we define a deployment metamodel, allowing to automate the processing of deployment data. We also define deployment strategies which allow enterprises to define their own deployment constraints, according to their needs and preferences
36

Khalgui, Mohamed. "Validation temporelle et déploiement d'une application de contrôle industrielle à base de composants." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL009N/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la validation temporelle ainsi qu'au déploiement d'applications de contrôle industriel à base de composants. La technologie des composants retenue est celle des Blocs Fonctionnels définie dans la norme industrielle IEC 61499. Un Bloc Fonctionnel est défini comme un composant réactif supportant des fonctionnalités d'une application. L'avantage de cette norme, connue dans l'industrie, est la description statique de l'application ainsi que de son support d'exécution. Une première contribution de la thèse est l'interprétation des différents concepts définis dans la norme. Nous précisons, en particulier, la dynamique du composant en vue de décrire un comportement déterministe de l'application. Pour appliquer une validation temporelle exhaustive, nous proposons un modèle de comportement d'un Bloc Fonctionnel à l'aide du formalisme des automates temporisés. D'autre part, nous fournissons une sémantique au concept de réseau de Blocs Fonctionnels pour décrire une application comme une composition de Blocs. Une deuxième contribution de la thèse est le déploiement de tels réseaux sur une architecture distribuée multi-tâches tout en respectant des propriétés sur les temps de réponse de bout en bout. Nous transformons un réseau de Blocs Fonctionnels vers un ensemble de tâches élémentaires dépendantes, appelées actions. Cette transformation permet l'exploitation de résultats d'ordonnancement pour valider la correction temporelle de l'application. Pour déployer les blocs d'une application, nous proposons une approche hybride alliant un ordonnancement statique non-préemptif et un autre ordonnancement en ligne préemptif. L'ordonnancement statique permet la construction des tâches s'exécutant sur chaque calculateur. Ces tâches sont vues comme des séquencements statiques d'actions. Elles sont alors à ordonnancer dynamiquement selon une politique préemptive reposant sur EDF (Earliest Deadline First). Grâce à cette approche, nous réduisons le nombre de commutation de contexte en regroupant les actions au sein des tâches. De plus l'ordonnancement dynamique préemptif augmente la faisabilité du système. Enfin, une dernière contribution est une extension de la deuxième. Nous proposons une approche d'allocation de réseaux de blocs fonctionnels sur un support d'exécution distribué. Cette allocation, basée sur une heuristique de Liste, se repose sur la méthode hybride pour assurer un déploiement faisable de l'application. Le problème d'allocation est de trouver pour chaque bloc fonctionnel le calculateur capable de l'exécuter tout en respectant des contraintes fonctionnelles, temporelles et de support d'exécution. Notons enfin que l'heuristique proposée se base sur une technique de retour-arrière pour augmenter l'espace de solutions
This thesis deals with the temporal validation and the deployment of component-based industrial control applications. We are interested in the Function Blocks approach, defined in the IEC 61499 standard, as a well known component based technology in the industry. A Function Block is an event triggered component owning data to support the application functionalities. The advantage of this technology is the taking into account of the application and also its execution support. The first thesis contribution deals with the interpretation of the different concepts defined in the standard. In particular, we propose a policy defining a deterministic behavior of a FB. To apply an exhaustive temporal validation of the application, we propose a behavioral model of a Block as Timed Automata. On the other hand, we propose a semantic for the concept of FBs networks to develop industrial control applications. The second thesis contribution deals with the deployment of FBs networks in a distributed multi-tasking architecture. Such deployment has to respect classical End to End Response Time Bounds as temporal constraints. To validate the temporal behavior of an application, we propose an approach transforming its blocks into an actions system with precedence constraints. The purpose is to exploit previous theories on the scheduling of real-time systems. To deploy FBs networks in feasible OS tasks, we propose a Hybrid scheduling approach combining an off-line non-preemptive scheduling and an on-line preemptive one. The off-line scheduling allows to construct OS tasks from FBs, whereas the on-line one allows to schedule these tasks according to the classical EDF policy. A constructed OS task is an actions sequence defining an execution scenario of the application. Thanks to this approach, we reduce the context switching at run-time by merging application actions in OS tasks. In addition, the system feasibility is increased by applying an on-line preemptive policy. Finally, the last thesis contribution is an extension of the previous one. We propose an approach allocating FBs networks in a distributed architecture. Based on a heuristic, such approach uses the hybrid method to construct feasible OS tasks in calculators. The allocation problem of a particular application FB is to look for a corresponding calculator while respecting functional, temporal and execution support constraints. We note that the proposed heuristic is based on a back-tracking technic to increase the solutions space
37

Marchal, Xavier. "Architectures et fonctions avancées pour le déploiement progressif de réseaux orientés contenus." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0049/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les protocoles historiques d’Internet (TCP/IP) qui servaient à interconnecter les tous premiers ordinateurs ne sont plus adaptés à la diffusion massive de contenus qui en est fait aujourd’hui. De nouveaux protocoles réseau centrés sur les contenus (Information-Centric Networking) sont actuellement conçus pour optimiser ces échanges en pariant sur un changement de paradigme où les contenus, plutôt que les machines sont adressables à l’échelle d’Internet. Cependant, un tel changement ne peut se faire que progressivement et si tous les impératifs opérationnels sont assurés. Ainsi, cette thèse a pour objectif d’étudier et de lever les principaux verrous technologiques empêchant l’adoption du protocole NDN (Name Data Networking) par les opérateur en garantissant la sécurité, les performances, l’interopérabilité, la bonne gestion et le déploiement automatisé d’un réseau NDN. Dans un premier temps, nous évaluons les performances actuelles d’un réseau NDN à l’aide d’un outil de notre conception, ndnperf, et constatons le coût élevé pour un serveur utilisant ce protocole. Puis nous proposons un ensemble de solutions pour améliorer l’efficacité d’un serveur NDN pouvant être jusqu’à 6,4 fois plus efficient que les paramètres de base. Ensuite nous nous intéressons à la sécurité de NDN à travers l’évaluation de l’attaque par empoisonnement de contenus, connue pour être critique mais jamais caractérisée. Cette étude se base sur deux scénarios, en utilisant un serveur et un client pour effectuer la pollution, ou en exploitant une faille dans le traitement des paquets au niveau du routeur. Nous montrons ainsi la dangerosité de l’attaque et proposons une correction de la faille la permettant. Dans un troisième temps, nous cherchons à adapter le protocole HTTP pour qu’il puisse être transporté sur un réseau NDN à des fins d’interopérabilité. Pour ce faire, nous avons développé deux passerelles qui effectuent les conversions nécessaires pour qu’un contenu web puisse rentrer ou sortir d’un réseau NDN. Après avoir décrit notre solution, nous l’évaluons et l’améliorons afin de pouvoir bénéficier d’une fonctionnalité majeure de NDN, à savoir la mise en cache des contenus dans le réseau à hauteur de 61,3% lors de tests synthétiques et 25,1% lors de simulations de navigation avec plusieurs utilisateurs utilisant une loi Zipf de paramètre 1,5. Pour finir, nous proposons une architecture à base de microservices virtualisés et orchestrés pour le déploiement du protocole NDN en suivant le paradigme NFV (Network Function Virtualization). Les sept microservices présentés reprennent soit une fonction atomique du routeur, soit proposent un nouveau service spécifique. Ces fonctions peuvent ensuite être chaînées pour constituer un réseau optimisé. Cette architecture est orchestrée à l’aide d’un manager qui nous permet de pleinement tirer parti des avantages des microservices comme la mise à l’échelle des composants les plus lents ou encore le changement dynamique de topologie en cas d’attaque.Une telle architecture, associée aux contributions précédentes, permettrait un déploiement rapide du protocole NDN, notamment grâce à un développement facilité des fonctions, à l’exécution sur du matériel conventionnel, ou encore grâce à la flexibilité qu’offre ce type d’architecture
Internet historical protocols (TCP/IP) that were used to interconnect the very first comput-ers are no longer suitable for the massive distribution of content that is now being made. New content-based network protocols (Information-Centric Networking) are currently being designed to optimize these exchanges by betting on a paradigm shift where content, rather than machines, are addressable across the Internet. However, such a change can only be made gradually and if all operational imperatives are met. Thus, this thesis aims to study and remove the main tech-nological obstacles preventing the adoption of the NDN (Name Data Networking) protocol by operators by guaranteeing the security, performance, interoperability, proper management and automated deployment of an NDN network. First, we evaluate the current performance of an NDN network thanks to a tool we made, named ndnperf, and observe the high cost for a provider delivering fresh content using this protocol. Then, we propose some optimizations to improve the efficiency of packet generation up to 6.4 times better than the default parameters. Afterwards, we focus on the security of the NDN protocol with the evaluation of the content poisoning attack, known as the second more critical attack on NDN, but never truly characterized. Our study is based on two scenarios, with the usage of a malicious user and content provider, or by exploiting a flaw we found in the packet processing flow of the NDN router. Thus, we show the danger of this kind of attacks and propose a software fix to prevent the most critical scenario. Thirdly, we are trying to adapt the HTTP protocol in a way so that it can be transported on an NDN network for interoperability purposes. To do this, we designed an adaptation protocol and developed two gateways that perform the necessary conversions so that web content can seamlessly enter or exit an NDN network. After describing our solution, we evaluate and improve it in order to make web content benefit from a major NDN feature, the in-network caching, and show up to 61.3% cache-hit ratio in synthetic tests and 25.1% in average for browsing simulations with multiple users using a Zipf law of parameter 1.5. Finally, we propose a virtualized and orchestrated microservice architecture for the deploy-ment of an NDN network following the Network Fonction Virtualization (NFV) paradigm. We developed seven microservices that represent either an atomic function of the NDN router or a new one for specific purposes. These functions can then be chained to constitute a full-fledged network. Our architecture is orchestrated with the help of a manager that allows it to take the full advantages of the microservices like scaling the bottleneck functions or dynamically change the topology for the current needs (an attack for example). Our architecture, associated with our other contributions on performance, security and in-teroperability, allows a better and more realistic deployment of NDN, especially with an easier development of new features, a network running on standard hardware, and the flexibility allowed by this kind of architecture
38

Cudennec, Loïc. "CoRDAGe : un service générique de co-déploiement et redéploiement d’applications sur grilles." Phd thesis, Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/cudennec.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les grilles informatiques sont constituées de plusieurs milliers de ressources physiques hétérogènes et réparties dans des domaines d'administration différents. Ceci rend l'utilisation des grilles très difficile, notamment pour déployer une application et prendre en compte la dynamicité de l'infrastructure. La contribution de ce travail de doctorat est de proposer un modèle permettant de prendre en charge le déploiement d'applications distribuées, de manière dynamique et transparente pour l'utilisateur. Ce modèle s'adapte aux spécificités de chaque application, sans pour autant être intrusif lors de leur conception. Afin de valider notre modèle, nous proposons une architecture appelée CoRDAGe. Elle a été utilisée pour prendre en charge le service de partage de données JuxMem et le système de fichiers Gfarm sur la plate-forme expérimentale Grid'5000
Computer grids are made of thousands of heterogeneous physical resources that belong to different administration domains. This makes the use of the grid very complex, especially for deploying distributed applications at large scale, while taking care of the dynamicity of the infrastructure. The contribution of the PhD Thesis is to propose a model that allows to dynamically and transparently deploy distributed applications. This model can be adapted, in a non-intrusive way, to handle different kind of applications. In order to validate our model, we propose an architecture named CoRDAGe. This leads to a prototype that can handle several applications, such as the JuxMem data-sharing service and the Gfarm distributed file system. Experimentations have been conducted within the Grid'5000 project
39

Khalgui, Mohamed. "Validation temporelle et déploiement d'une application de contrôle industrielle à base de composants." Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL009N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la validation temporelle ainsi qu'au déploiement d'applications de contrôle industriel à base de composants. La technologie des composants retenue est celle des Blocs Fonctionnels définie dans la norme industrielle IEC 61499. Un Bloc Fonctionnel est défini comme un composant réactif supportant des fonctionnalités d'une application. L'avantage de cette norme, connue dans l'industrie, est la description statique de l'application ainsi que de son support d'exécution. Une première contribution de la thèse est l'interprétation des différents concepts définis dans la norme. Nous précisons, en particulier, la dynamique du composant en vue de décrire un comportement déterministe de l'application. Pour appliquer une validation temporelle exhaustive, nous proposons un modèle de comportement d'un Bloc Fonctionnel à l'aide du formalisme des automates temporisés. D'autre part, nous fournissons une sémantique au concept de réseau de Blocs Fonctionnels pour décrire une application comme une composition de Blocs. Une deuxième contribution de la thèse est le déploiement de tels réseaux sur une architecture distribuée multi-tâches tout en respectant des propriétés sur les temps de réponse de bout en bout. Nous transformons un réseau de Blocs Fonctionnels vers un ensemble de tâches élémentaires dépendantes, appelées actions. Cette transformation permet l'exploitation de résultats d'ordonnancement pour valider la correction temporelle de l'application. Pour déployer les blocs d'une application, nous proposons une approche hybride alliant un ordonnancement statique non-préemptif et un autre ordonnancement en ligne préemptif. L'ordonnancement statique permet la construction des tâches s'exécutant sur chaque calculateur. Ces tâches sont vues comme des séquencements statiques d'actions. Elles sont alors à ordonnancer dynamiquement selon une politique préemptive reposant sur EDF (Earliest Deadline First). Grâce à cette approche, nous réduisons le nombre de commutation de contexte en regroupant les actions au sein des tâches. De plus l'ordonnancement dynamique préemptif augmente la faisabilité du système. Enfin, une dernière contribution est une extension de la deuxième. Nous proposons une approche d'allocation de réseaux de blocs fonctionnels sur un support d'exécution distribué. Cette allocation, basée sur une heuristique de Liste, se repose sur la méthode hybride pour assurer un déploiement faisable de l'application. Le problème d'allocation est de trouver pour chaque bloc fonctionnel le calculateur capable de l'exécuter tout en respectant des contraintes fonctionnelles, temporelles et de support d'exécution. Notons enfin que l'heuristique proposée se base sur une technique de retour-arrière pour augmenter l'espace de solutions
This thesis deals with the temporal validation and the deployment of component-based industrial control applications. We are interested in the Function Blocks approach, defined in the IEC 61499 standard, as a well known component based technology in the industry. A Function Block is an event triggered component owning data to support the application functionalities. The advantage of this technology is the taking into account of the application and also its execution support. The first thesis contribution deals with the interpretation of the different concepts defined in the standard. In particular, we propose a policy defining a deterministic behavior of a FB. To apply an exhaustive temporal validation of the application, we propose a behavioral model of a Block as Timed Automata. On the other hand, we propose a semantic for the concept of FBs networks to develop industrial control applications. The second thesis contribution deals with the deployment of FBs networks in a distributed multi-tasking architecture. Such deployment has to respect classical End to End Response Time Bounds as temporal constraints. To validate the temporal behavior of an application, we propose an approach transforming its blocks into an actions system with precedence constraints. The purpose is to exploit previous theories on the scheduling of real-time systems. To deploy FBs networks in feasible OS tasks, we propose a Hybrid scheduling approach combining an off-line non-preemptive scheduling and an on-line preemptive one. The off-line scheduling allows to construct OS tasks from FBs, whereas the on-line one allows to schedule these tasks according to the classical EDF policy. A constructed OS task is an actions sequence defining an execution scenario of the application. Thanks to this approach, we reduce the context switching at run-time by merging application actions in OS tasks. In addition, the system feasibility is increased by applying an on-line preemptive policy. Finally, the last thesis contribution is an extension of the previous one. We propose an approach allocating FBs networks in a distributed architecture. Based on a heuristic, such approach uses the hybrid method to construct feasible OS tasks in calculators. The allocation problem of a particular application FB is to look for a corresponding calculator while respecting functional, temporal and execution support constraints. We note that the proposed heuristic is based on a back-tracking technic to increase the solutions space
40

Plainchault, Mélanie. "Conception de protocoles DDF pour le déploiement de relais auto-configurables." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00958365.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous avons proposé et étudié une implémentation pratique du protocole DDF pour des relais auto-configurables au niveaux lien et système. Cette implémentation pratique, basée sur du codage correcteur d'erreur et une segmentation de la trame émise (comme pour les mécanismes d'HARQ), est combinée avec différents schémas de relayage tels que le Monostream, l'Alamouti Distribué ou encore les Rotations Distribuées.Nous avons montré que ces trois schémas atteignent les mêmes ordres de macro et micro diversité. L'ordre de micro diversité se réfère au gain qui peut être acquis via les coefficients d'évanouissement court-terme. Nous avons défini l'ordre de macro diversité comme le nombre de sources desquelles toute l'information peut être entièrement décodée sans l'aide des autres sources. De plus, nous avons prouvé que les trois schémas de relayage permettent d'atteindre de meilleures performances que le cas sans relais, leurs performances ne diffèrent qu'en terme de gain de codage: le DA DDF a de meilleure performance que le DR DDF, qui lui-même à de meilleures performances que le Monostream DDF. Cependant, les évaluations système ont montré que ce gain de codage n'est pas significatif au niveau système. Cela montre que la métrique pertinente à optimiser pour améliorer les performances est l'ordre de macro diversité atteignable par le protocole; c'est à dire que le gain le plus important apporté par le relayage est un gain de rapport signal à bruit long-terme. Nous avons donc proposé la technique de Patching pour augmenter l'ordre de macro diversité atteignable par une transmission. Cette technique vise à augmenter le nombre de bits transmis par le relais jusqu'au nombre de bits d'information contenus dans le message. Quand cette technique de Patching est combinée aux codes spatio-temporels, elle permet d'améliorer à la fois l'ordre de macro diversité et l'ordre de micro diversité. Cette technique de Patching a aussi été utilisée sur le canal à interférence et relais pour lequel nous avons introduit l'usage d'un protocole DDF précodé par un relais partagé par plusieurs paires source/destination. Dans ce cas, le Patching a pour but d'améliorer les performances par rapport au cas avec précodeur uniquement, et ce en maximisant le nombre de symboles précodés par relais. Les gains résultants de ces nombreuses variations de notre implémentation pratique du protocole DDF sont finalement décrits au niveau système pour un déploiement macro-cellulaire en zone urbaine, et pour un déploiement indoor, en considérant deux applications : une transmission unicast, par exemple du téléchargement sur internet, ou encore de la diffusion, de la télévision par exemple. Les résultats montrent que le Monostream DDF permet d'atteindre de bonnes performances tout en garantissant que la source et la destination n'ont pas conscience de la présence du relais dans le système. Par conséquent, ce protocole est un candidat intéressant pour le déploiement massif de relais auto-configurables dans les réseaux sans fil.
41

Raffin, Erwan. "Déploiement d'applications multimédia sur architecture reconfigurable à gros grain : modélisation avec la programmation par contraintes." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00642330.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes embarqués sont des dispositifs électroniques et informatiques autonomes, dédiés à une tâche bien précise. Leur utilisation s'est désormais démocratisée à de nombreux domaines d'applications et en particulier au multimédia. Ce type d'application est caractérisé par un besoin important en puissance de calcul et en échange de données. Les architectures matérielles au cœur de ces systèmes sont généralement dotées d'accélérateurs chargés de l'exécution des noyaux de calcul intensif. Les architectures reconfigurables à gros grain (CGRA) sont particulièrement adaptées à l'accélération d'applications multimédia car elles répondent au mieux aux contraintes de performance, d'efficacité énergétique, de flexibilité et de coût de conception. En effet, ce type d'architecture est un compromis entre les processeurs à usage général, les architectures dédiées et celles reconfigurables à grain fin. Cette thèse traite de certains aspects liés aux problématiques de conception et de compilation d'applications pour CGRA. Nos travaux s'inscrivent dans une démarche d'adéquation applications multimédia / CGRA / conception et compilation basées sur la programmation par contraintes (CP). Notre méthodologie nous a permis, grâce à la CP, de modéliser et de résoudre un ensemble de problèmes combinatoires complexes. Le premier modèle présenté a trait à la fusion d'unités fonctionnelles reconfigurables sous contraintes architecturales et technologiques. Les deux autres modèles abordent les problèmes de : placement, ordonnancement et routage des données pour le déploiement d'une application sur CGRA. Notre approche permet, dans la majorité des cas, de prouver l'optimalité de la solution obtenue.
42

Khouri, Selma, and Selma Khouri. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00926657.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l'objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d'une vision globale s'inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d'uneméthode de conception adaptée aux récentes évolutions qu'a connu le cycle de conception, etenglobant l'ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l'importance des besoins des utilisateurs dansle processus de conception, et l'importance d'accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d'ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l'ED. Cette vue permet d'anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles.
43

Anaya, Arenas Ana Maria. "Planification de la distribution en contextes de déploiement d'urgence et de logistique hospitalière." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26564.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’optimisation de la distribution est une préoccupation centrale dans l’amélioration de la performance des systèmes industriels et des entreprises de services. Avec les avancées technologiques et l’évolution du monde des affaires, de nouveaux domaines d’application posent des défis aux gestionnaires. Évidemment, ces problèmes de distribution deviennent aussi des centres d’intérêt pour les chercheurs. Cette thèse étudie l’application des méthodes de recherche opérationnelle (R.O.) à l’optimisation des chaînes logistiques dans deux contextes précis : le déploiement logistique en situation d’urgence et la logistique hospitalière. Ces contextes particuliers constituent deux domaines en forte croissance présentant des d’impacts majeurs sur la population. Ils sont des contextes de distribution complexes et difficiles qui exigent une approche scientifique rigoureuse afin d’obtenir de bons résultats et, ultimement, garantir le bien-être de la communauté. Les contributions de cette thèse se rapportent à ces deux domaines. D’abord, nous présentons une révision systématique de la littérature sur le déploiement logistique en situation d’urgence (Chapitre 2) qui nous permet de consolider et de classifier les travaux les plus importants du domaine ainsi que d’identifier les lacunes dans les propositions actuelles. Cette analyse supporte notre seconde contribution où nous proposons et évaluons trois modèles pour la conception d’un réseau logistique pour une distribution juste de l’aide (Chapitre 3). Les modèles cherchent à assurer une distribution équitable de l’aide entre les points de demande ainsi qu’une stabilité dans le temps. Ces modèles permettent les arrérages de la demande et adaptent l’offre aux besoins de façon plus flexible et réaliste. Le deuxième axe de recherche découle d’un mandat de recherche avec le Ministère de la Santé et de Services sociaux du Québec (MSSS). En collaboration avec les gestionnaires du système de santé québécois, nous avons abordé la problématique du transport d’échantillons biomédicaux. Nous proposons deux modèles d’optimisation et une approche de résolution simple pour résoudre ce problème difficile de collecte d’échantillons (Chapitre 4). Cette contribution est par la suite généralisée avec la synchronisation des horaires d’ouverture de centres de prélèvement lors de la planification des tournées. Une procédure itérative de recherche locale est proposée pour résoudre le problème (Chapitre 5). Il en découle un outil efficace pour la planification des tournées de véhicules dans le réseau des laboratoires québécois.
Optimisation in distribution is a major concern towards the performance’s improvement of manufacturing and service industries. Together with the evolution of the business’ world and technology advancements, new practical challenges need to be faced by managers. These challenges are thus a point of interest to researchers. This thesis concentrates on the application of operational research (O.R.) techniques to optimise supply chains in two precise contexts: relief distribution and healthcare logistics. These two research domains have grown a lot recently and have major impacts on the population. These are two complex and difficult distribution settings that require a scientific approach to improve their performance and thus warrant the welfare among the population. This thesis’s contributions relate to those two axes. First, we present a systematic review of the available literature in relief distribution (Chapter 2) to consolidate and classify the most important works in the field, as well as to identify the research’s gaps in the current propositions and approaches. This analysis inspires and supports our second contribution. In Chapter 3, we present and evaluate three models to optimise the design of relief distribution networks oriented to fairness in distribution. The models seek to ensure an equitable distribution between the points of demand and in a stable fashion in time. In addition, the models allow the backorder of demand to offer a more realistic and flexible distribution plan. The second research context result from a request from Quebec’s Ministry of Health and Social Services (Ministère de la Santé et des Services sociaux – MSSS). In partnership with the managers of Quebec’s healthcare system, we propose an approach to tackle the biomedical sample transportation problem faced by the laboratories’ network in Quebec’s province. We propose two mathematical formulations and some fast heuristics to solve the problem (Chapter 4). This contribution is later extended to include the opening hours’ synchronisation for the specimen collection centers and the number and frequency of pick-ups. We propose an iterated local search procedure (ILS) to find a routing plan minimising total billable hours (Chapter 5). This leads to an efficient tool to routing planning in the medical laboratories’ network in Quebec.
44

Miquée, Sébastien. "Exécution d'applications parallèles en environnements hétérogènes et volatils : déploiement et virtualisation." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00979300.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La technologie actuelle permet aux scientifiques de divers domaines d'obtenir des données de plus en plus précises et volumineuses, Afin de résoudre ces problèmes associés à l'obtention de ces données, les architectures de calcul évoluent, en fournissant toujours plus de ressources, notamment grâce à des machines plus puissantes et à leur mutualisation. Dans cette thèse, nous proposons d'étudier dans un premier temps le placement des tâches d'applications itératives asynchrones dans des environnements hétérogènes et volatils. Notre solution nous permet également de s'affranchir de l(hétérogénéité des machines hôtes tout en offrent une implantation facilitée de politiques de tolérance aux pannes, les expérimentations que nous avons menées sont encourageantes et montrent qu'il existe un réel potentiel quand à l'utilisation d'une telle plateforme pour l'exécution d'applications scientifiques.
45

Ahmed, Nacer Amina. "Contributions au déploiement sécurisé de processus métiers dans le cloud." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant
The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
46

Alimi, Vincent. "Contributions au déploiement des services mobiles et à l'analyse de la sécurité des transactions." Phd thesis, Caen, 2012. http://www.theses.fr/2012CAEN2061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les transactions électroniques ont ouvert la voie à une multitude de possibilités déclinées sous diverses formes : le portail internet d’une banque pour consulter ses comptes, une carte à puce permettant d’ouvrir une porte ou de valider son titre de transport en commun, une application téléchargée sur un ordinateur ou un équipement mobile comme un assistant personnel numérique ou un téléphone portable. Cette dernière catégorie d’´equipement mobile est extrêmement porteuse en termes d’offres de services. En effet, un mobile est un équipement nomade, connecté à l’Internet avec des débits de plus en plus élevés, et il est aussi de plus en plus puissant. Avec l’avènement de la technologie NFC (Near Field Communication) et des architectures sécurisées, le mobile a maintenant la possibilité d’héberger des applications sensibles dans une puce sécurisée, appelée « Secure Element ». Contrairement aux facteurs de formes plastiques, le Secure Element est un environnement dynamique sur lequel on peut charger des applications qui seront accessibles par un lecteur comme un terminal de paiement ou un lecteur de badge d’accès à un bâtiment. On parle alors de service mobile sans-contact ou de service mobile NFC. Nous proposons dans cette thèse d’apporter plusieurs contributions pour faciliter le déploiement de services mobiles exploitant un Secure Element. L’adoption de ce type de service pour des applications `a forte valeur ajoutée passe par une infrastructure et des outils partagés par les différents acteurs. Dans un premier temps, nous proposons trois contributions pour l’aide au déploiement de services mobiles basé sur un Secure Element afin de : faciliter la personnalisation d’un Secure Element par un TSM non propriétaire de celui-ci, faciliter l’échange de clés pour le TSM et réaliser une transaction avec un téléphone mobile comme Terminal de Paiement Electronique). Dans un second temps, nous nous intéressons à l’analyse de la sécurité des transactions de paiement
Electronic transactions have paved the way for a multitude of services in various forms : a home banking web portal, an access control smart card opening a door or paying a transit fare, or an application downloaded onto a computer or a mobile device such a personal digital assistant or a mobile phone. The latter category of mobile equipment is extremely promising in terms of service offers. Indeed, a mobile handheld device is connected to the Internet with speeds higher and higher and is also more powerful. With the advent of the NFC (Near Field Communication) technology and secure architectures, mobile devices now has the ability to host sensitive applications in a secure chip, called « Secure Element ». Unlike plastic form factors, the Secure Element is a dynamic environment where you can download applications that will be accessible by a reader such as a point of sale or an access control reader. Those services are called mobile contactless services or NFC mobile services. We propose in this thesis several contributions to facilitate the deployment of mobile services based on a Secure Element. The adoption of this high added value services relies on an infrastructure and tools shared by different actors. As a first step, we propose three contributions to aid the deployment of mobile services Secure Element based allowing to: facilitate the personalization of a Secure Element by a TSM non-owner thereof, facilitate the exchange of keys for the TSM and perform a transaction with a mobile phone as a point of sale. In a second step, we focus on the analysis of payment transactions
47

Anssens, Charles. "Déploiement de la technologie RFID pour de nouveaux usages dans les industries du commerce." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui personne n’est capable de garantir le 100% de taux de lecture d’objets à identifier sous un portique, la tendance est d’augmenter la puissance d’émission pour être certains d’envoyer assez d’énergie pour téléalimenter tous les tags passant sous un portique. Cependant la puissance émise devient suffisante pour lire les tags du portique adjacent, c’est le phénomène de lectures croisées. Pour s’affranchir de ce problème nous avons développé une technique de synchronisation des lectures RFID visant à maximiser le taux de lecture et à corriger les lectures croisées. Dans le cadre de ma thèse je me suis orienté vers une architecture basée sur l’inventaire temps réel et couvrant toute la surface d’un entrepôt et non plus seulement les entrées et sorties. Pour mettre en place cette architecture il faut un maillage de lecteurs RFID et ceux-ci doivent être communicants. Nous réalisons donc un réseau de capteurs RFID qui permet une traçabilité plus fine, des inventaires temps réel et de nouveaux services tel que la localisation d’articles. Nous avons pu réaliser des prototypes fonctionnels de réseau de capteurs RFID dans la bande UHF (868MHz). Obtenir un taux de lecture à 100% est complexe à obtenir car les conditions d’environnements varient. De nombreux facteurs influent sur les performances. Un de ces facteurs est le phénomène d’évanouissements d’ondes sélectifs. D’où le besoin de développer des antennes qui modifient leur rayonnement afin de déplacer les évanouissements et ainsi s’assurer de couvrir 100% de l’espace en lecture RFID
The rise of the internet of things will allow for the retail sector new opportunities of development. To access to this technology it remains a lot of technical challenges. Currently in the warehouses equipped with RFID there is a trade off between radiated power which determines the ability to read 100% of the targeted tag’s population and the quality of the information. To ensure a 100% of reading of this population the risk is to read others tags, in another tag population: the adjacent portal or in the warehouse stock. The RFID in warehouse has to improve the information quality to get a rise of deployment in industry. Our goal is to improve the efficiency in stock management for warehouses or retail stores by correcting the cross readings. We decided to consider the implementation of a RFID sensor network. This technology is based on a network of nodes in which each node collects data of its environment. By placing the nodes and meshing the surface it is now possible to cover a space. First we will explain the context and the standards of RFID for the retail. Then we will present a sensor network system design to make the inventory of items. Finally we will examine the optimization for the retail environment. The environment conditions impact on the reading rate, many parameters from the environment impact on the performance. The multi-path effect decreases the reading rate specialy in a RFID sensor network where all elements are static. The main solution is to use antenna array to get diversity in the radiation field and to get a high reading rate
48

Guerra, Matteo. "Le déploiement et l'évitement d'obstacles en temps fini pour robots mobiles à roues." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail traite de l'évitement d'obstacles pour les robots mobiles à roues. D’abord, deux solutions sont proposées dans le cas d’un seul robot autonome. La première est une amélioration de la technique des champs de potentiel afin de contraster l’apparition de minima locaux. Le résultat se base sur l’application de la définition de l’ «Input-to-State Stability» pour des ensembles décomposables. Chaque fois que le robot mobile approche un minimum local l’introduction d’un contrôle dédié lui permet de l’éviter et de terminer la tâche. La deuxième solution se base sur l’utilisation de la technique du «Supervisory Control» qui permet de diviser la tâche principale en deux sous tâches : un algorithme de supervision gère deux signaux de commande, le premier en charge de faire atteindre la destination, le deuxième d’éviter les obstacles. Les deux signaux de commande permettent de compléter la mission en temps fini en assurant la robustesse par rapport aux perturbations représentant certaines dynamiques négligées. Les deux solutions ont été mises en service sur un robot mobile «Turtlebot 2». Pour contrôler une formation de type leader-follower qui puisse éviter collisions et obstacles, une modification de l’algorithme de supervision précédent a été proposée ; elle divise la tâche principale en trois sous-problèmes gérés par trois lois de commande. Le rôle du leader est adapté pour être la référence du groupe avec un rôle actif : ralentir la formation en cas de manœuvre d'évitement pour certains robots. La méthode proposée permet au groupe de se déplacer et à chaque agent d’éviter les obstacles, ou les collisions, de manière décentralisée
This dissertation work addresses the obstacle avoidance for wheeled mobile robots. The supervisory control framework coupled with the output regulation technique allowed to solve the obstacle avoidance problem and to formally prove the existence of an effective solution: two outputs for two objectives, reaching the goal and avoiding the obstacles. To have fast, reliable and robust results the designed control laws are finite-time, a particular class very appropriate to the purpose. The novelty of the approach lies in the easiness of the geometric approach to avoid the obstacle and on the formal proof provided under some assumptions. The solution have been thus extended to control a leader follower formation which, sustained from the previous result, uses two outputs but three controls to nail the problem. The Leader role is redesigned to be the reference of the group and not just the most advanced agent, moreover it has a active role slowing down the formation in case of collision avoidance manoeuvre for some robots. The proposed method, formally proven, makes the group move together and allow each agent to avoid obstacles or collision in a decentralized way. In addition, a further contribution of this dissertation, it is represented by a modification of the well known potential field method to avoid one of the common drawback of the method: the appearance of local minima. Control theory tools helps again to propose a solution that can be formally proven: the application of the definition of Input-to-State Stability (ISS) for decomposable sets allows to treat separate obstacles adding a perturbation which is able to move the trajectory away from a critic point
49

Loulou-Aloulou, Monia. "Approche formelle pour la spécification, la vérification et le déploiement des politiques de sécurité dynamiques dans les systèmes à base d’agents mobiles." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14088/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons développé dans le cadre de cette thèse deux aspects complémentaires liés à la sécurité des systèmes d’agents mobiles : l'aspect statique et l'aspect dynamique. Pour l’aspect statique, nous avons proposé une spécification formelle des politiques de sécurité qui traite les différentes préoccupations de sécurité dans les systèmes à base d'agents mobiles et couvre les différents concepts liés à la définition de tels systèmes. L'aspect dynamique, s'intéresse à définir formellement l'ensemble des opérations élémentaires de reconfiguration de ces politiques et de définir un cadre qui exprime l'adaptabilité de la politique de l'agent aux nouvelles exigences de sécurité du système visité. Pour les deux aspects, nous avons porté un intérêt considérable à la vérification formelle. Les démarches de vérification élaborées sont implémentées et validées sous l'outil de preuve Z/EVES. D’un point de vue opérationnel, nous avons défini un cadre pour l'imposition des politiques de sécurité. Ce dernier tire profit du cadre théorique, que nous avons défini, et applique une approche de génération de code basée sur le paradigme de la POA
We develop two complementary aspects related to the security of mobile agent systems: the static and dynamic aspect. The first is related to the specification of security policies which treats the various security concerns in mobile agent systems and covers the various concepts related to the modeling of such systems. The dynamic aspect takes an interest to define a set of elementary operations which may change a given policy and a framework that expresses the adaptability of the agent policy to the security requirements of the new visited system. All Specifications are coded in Z notation.Another main contribution consists in providing a formal verification framework which gives more completeness and more consistency to the proposed specifications for both aspects. All checking processes are implemented under the Z/EVES theorem prover. Finally, we have take advantage from this theoretical work and we have defined an operational framework for enforcement security policies which combine the strengths of AOP with those of formal methods
50

Kam, Ollé Michel. "Prédiction pour la gestion intelligente territorialisée de la ressource renouvelable photovoltaïque & intégration par déploiement d’un réseau de capteurs IoT LoRaWAN." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0197.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mise en place de micro-réseaux électriques décentralisés à sources d’énergies renouvelables (EnR) est actuellement un challenge pour l’alimentation d’infrastructures de télécommunication. La production d’électricité à partir d’installations photovoltaïque (PV) et/ou micro-éolienne est plus adaptée du point vu de la disponibilité des ressources renouvelables et leur déploiement à proximité des antennes télécoms. Cependant, l’intermittence et la variabilité des sources renouvelables, en particulier pour le PV, posent un problème d’équilibre entre la production et la consommation qui doit être assuré à tout moment. De plus, la question du dimensionnement prenant en compte cette intermittence est un véritable compromis entre la taille, le coût d’investissement, la marge de sécurité et de sureté de fonctionnement. Il est donc indispensable de développer des outils de prévision et de prédiction de la production électrique PV. L’objectif de ces travaux de thèse est d’établir un modèle pragmatique de prédiction de la ressource PV capable de caractériser la variabilité et l’intermittence de l’irradiation solaire à partir des données recueillies sur sites et sur une longue période. En s’appuyant sur des données de mesures expérimentales issues d’installations PV, nous montrons qu’une distribution adaptée de Weibull permet une prédiction fiable, caractérisant la variabilité de l’irradiation globale de sites à climat semi-continental (sites du territoire français). En particulier, ces travaux étudient et recherchent parmi les méthodes de détermination des paramètres de Weibull, celles qui sont les plus adaptées pour le domaine du PV pour prévoir la production annuelle d'énergie et la prédire dans le temps. L'originalité de la méthode proposée est l’obtention d’une production d'énergie PV annuelle fiable et d’une modélisation de la distribution pouvant contribuer à la génération de séries chronologiques synthétiques de données d'irradiation globale. Le modèle de Weibull proposé est adapté à la prédiction du gisement solaire et s’appuie sur une formulation mathématique permettant des résultats fiables pouvant être intégrée dans un outil d’environnement et d’acquisition temps réel de données de mesures. Pour valider l’approche développée de prévision pour une prédiction de sources d’alimentation PV pour des sites télécoms, nous proposons un démonstrateur d’acquisition temps réel à large couverture basé sur l'instrumentation d’une antenne télécom de la société TDF SAS par des capteurs IoT (Internet of Things) déployés en réseau. Le déploiement de capteurs IoT au protocole LoRaWAN (Long Range Wide Area Network) sur une tour de télécommunication traditionnelle, dans les conditions réelles de fonctionnement d’interférences des fréquences, a permis de démontrer que le réseau de capteurs est adapté pour développer des services de mesures, de prévisions d’énergies disponibles, de suivis et de supervisions d’installations PV servant à alimenter des antennes télécoms. Les capteurs IoT communiquent sans interférer aux installations préexistantes des tours tout en conservant la qualité des données issues des capteurs. Ce réseau LoRaWAN démontre la pertinence de déployer des stations météorologiques sur des sites existants d’antennes télécoms permettant en temps réel des exécutions du modèle de prédiction PV développé. Ces travaux dégagent des perspectives d’applications et de développement d’EnR à grande échelle sur un large territoire en considérant le climat dominant. Notamment, l’implémentation du modèle de prédiction à court terme au sein d’un environnement interconnecté à un réseau de capteurs météorologiques et communiquant en temps réel permettra une gestion intelligente d’installations EnR déployées dans un territoire
The implementation of decentralized electrical micro-grids base on renewable energies is a challenge for the power supplies of telecommunication infrastructures. These power sources supply from off-grid photovoltaic and micro-wind systems are more suitable for remote or isolated sites like telecom antennas considering the local installation feasibilities and renewable resource availabilities. However, the intermittence and the variability of renewable sources require to ensure the balance between the production and the consumption of energies. In addition, the system sizing requires a trade-off between size, investment cost, safety and reliability of the power supply due to the intermittency. This thesis aims to develop a model characterizing the global solar irradiation variability to predict PV productions from data recorded on sites and over a long period. We validated the calibration methods of the Weibull function allowing a reliable prediction of the global irradiation in a semi-continental climate (mainland French sites). More precisely, we experimentally determine the Weibull parameters for obtaining a reliable global irradiation forecast prediction by considering the sun incident radiation during time periods. This forecast allows to estimate the yearly energy generation and its prediction during the time evolution from a PV plant in considered sites. The originality of the proposed approach is to obtain reliable predictive yearly PV energy distributions which also can be used to generate synthetic data times series of the global irradiation. The proposed model is based a parametrized mathematical formula providing reliable prediction results and which can be integrated to a real-time data acquisition system. To validate the proposed approach for the prediction of the PV power source supplying of telecommunication infrastructures, we developed an IoT sensors network for real-time acquisition to instrument a telecom antenna allowing a wide area network coverage. We demonstrate that deployed networked IoT sensors based on LoRaWAN protocol on a traditional telecommunication tower operating under real conditions communicate reliably without affecting the tower’s functions while keeping the data quality of the sensors. The proposed LoRaWAN network is used for the data acquisition of the weather parameters performing the proposed forecast of the real-time PV production. The software implementation of the proposed prediction model interfaced to weather sensors allows a real-time and intelligent management of deployed renewable energy systems. Future work is also discussed to develop renewable energies on a wide territory with a semi-continental climate

До бібліографії