Dissertations / Theses on the topic 'Architectures de contrôle holonique'

To see the other types of publications on this topic, follow the link: Architectures de contrôle holonique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Architectures de contrôle holonique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Barbosa, José. "Proposition d’une architecture holonique auto-organisée et évolutive pour le pilotage des systèmes de production." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0008/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le monde des entreprises est profondément soumis à un ensemble de contraintes toujours plus exigeantes provenant d’une part des clients, exigeant des produits plus personnalisables, de qualité supérieure et à faible coût, et d’autre part des aléas internes auxentreprises, comprenant les pannes machines, les défaillances humaines, la fluctuation de la demande, les fréquentes variations de production. Cette thèse propose une architecture de contrôle de systèmes de production, basée sur les principes holoniques développées dans l’architecture ADACOR (ADAptive holonic COntrol aRchitecture), et l’étendant en s’inspirant des théories de l’évolution et en utilisant des mécanismes d’auto-organisation. L’utilisation des théories de l’évolution enrichit l’architecture de contrôle en permettant l’évolution de deux manières distinctes, en réponse au type et au degré de la perturbation apparue. Le premier mode d’adaptation, appelé auto-organisation comportementale, permet à chaque entité qui compose le système d’adapter dynamiquement leur comportement interne, gérant de cette façon de petites perturbations. Le second mode, nommé auto-organisation structurelle, traite de plus grandes perturbations, en permettant aux entités du système de ré-organiser leurs relations, et par conséquent modifier structurellement le système. L’architecture holonique auto-organisée de contrôle de systèmes de production proposée dans cette thèse a été validée sur une cellule de production flexible AIP-PRIMECA. Les résultats ont montré une amélioration des indicateurs clés de performance par rapport aux architectures de contrôle hiérarchiques et hétérarchiques
The manufacturing world is being deeply challenged with a set of ever demanding constraints where from one side, the costumers are requiring products to be more customizable, with higher quality at lower prices, and on other side, companies have to deal on a daily basis with internal disturbances that range from machine breakdown to worker absence and from demand fluctuation to frequent production changes. This dissertation proposes a manufacturing control architecture, following the holonic principles developed in the ADAptive holonic COntrol aRchitecture (ADACOR) and extending it taking inspiration in evolutionary theories and making use of self- organization mechanisms. The use of evolutionary theories enrich the proposed control architecture by allowing evolution in two distinct ways, responding accordingly to the type and degree of the disturbance that appears. The first component, named behavioural self- organization, allows each system’s entity to dynamically adapt its internal behaviour, addressing small disturbances. The second component, named structural self-organization, addresses bigger disturbances by allowing the system entities to re-arrange their rela- tionships, and consequently changing the system in a structural manner. The proposed self-organized holonic manufacturing control architecture was validated at a AIP-PRIMECA flexible manufacturing cell. The achieved experimental results have also shown an improvement of the key performance indicators over the hierarchical and heterarchical control architecture
2

Valette, Etienne. "Vers une approche anthropocentrée des architectures de contrôle pour les systèmes intelligents de production." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les dernières décennies ont vu croître en taille et en complexité les systèmes industriels ainsi que leurs flux (matériels et informationnels). L’hyper compétitivité des marchés, l’atomisation de la demande et l’augmentation des niveaux d’exigences clients ont fait émerger le besoin de coupler la robustesse et la performances des systèmes centralisés à la réactivité des systèmes décentralisés. Au cours des 20 dernières années, la pertinence de ces Architectures de Contrôle Hybrides (HCA) a pu être démontrée à travers de nombreux travaux. Toutefois, leurs déploiement reste aujourd’hui limité. Cette situation semble pouvoir être rapporté à un manque de généricité ou d’acceptabilité Humain/Système. La piste explorée dans ce travail de recherche consiste à proposer un cadre formel de référence pour la conception, modélisation, simulation, visualisation et évaluation des composants et des interactions/relations constitutifs des systèmes complexes. L’objectif de ce cadre est d’apporter la généricité manquant aujourd’hui pour le design des architectures de contrôle holoniques et hybrides pour les systèmes multi-agents complexes, mais également de favoriser l’inclusion de l’humain dans ces derniers. Pour ce faire, la nature des relations proposées s’appuie sur celles observables au sein des sociétés humaines, afin de favoriser la représentation des systèmes comme socio-techniques
Last decades have seen the growth in size and complexity of industrial systems and flows (both physical and informational). Hyper competitive markets, demand atomization and customer requirements level increase have brought about the need to combine the robustness and performance of centralized systems with the responsiveness of decentralized systems. For the 20 last years, the relevance of these Hybrid Control Architectures (HCA) has been demonstrated through numerous works. However, they are today hardly present in the industrial landscape. This situation could find some of its roots in a certain lack of genericity and/or Human-System acceptability. In this research work, the explored path consists in proposing a reference formal framework for the design, modelling, simulation, visualization and evaluation of complex systems' constitutive components and interactions/relations. The purpose of this framework is to bridge the genericity gap identified for Holonic and Hybrid Control Architectures Design regarding complex Multi-Agent Systems (MAS), but also to promote human inclusion into these. To this end and to promote the socio-technical representation of systems, the proposed relationships model is grounded on the nature of human societies' ones
3

Louati, Thamer. "Etude et réalisation d’un contrôle isoarchique de flux de personnes via des capteurs biométriques et infotroniques." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4308.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux effectués dans le cadre de cette thèse porte sur le contrôle intelligent, isoarchique et multicritère de flux de personnes dans une zone fermée. Nous proposons un système de contrôle basé sur la biométrie multimodale et le RFID qui sont deux techniques complémentaires pour une sécurisation robuste et flexible du flux de personnes. La biométrie multimodale est utilisée pour une reconnaissance plus fiable des individus, et le RFID pour la sécurisation et le stockage des informations identitaires des personnes à surveiller. Ce système est complètement décentralisé et la décision concernant une demande d'accès est prise de manière autonome au niveau de chaque porte de chaque zone sous contrôle. Les entités internes participantes au processus de prise de décision répondent à des concepts exprimés via le paradigme holonique. L'ouverture automatique d'une porte est conditionnée à la conjonction de plusieurs critères. Une méthode d'aide multicritère à la décision est ainsi déployée au sein de chaque porte d'accès pour fusionner les réponses des identifications biométriques et pour traiter en temps réel les demandes d'autorisation d'accès. Tout d'abord, un état de l'art a été réalisé sur la biométrie, la multimodalité biométrique, la technologie RFID et les systèmes de contrôle d'accès physique. Ensuite, un système de contrôle intelligent, isoarchique et multicritère a été proposé, intégrant l'utilisation simultanée de la multimodalité biométrique et du RFID. Enfin, un démonstrateur du système a été implémenté dans le cadre du contrôle de flux de détenus dans une prison
The proposed work deals with the intelligent control, isoarchic and multicriteria of people flow in a restricted area. Our proposal is a control system based on a multimodal biometrics and RFID which are considered as two secured complementary techniques for robust and flexible people flow control. Multimodal biometrics is used for more reliable individual recognitions and the RFID for securing and storing supervised individuals identity information. This system is completely decentralized and the decision related to a control access request is made autonomously at each gate of each controlled area. The internal entities which participate to the decision making process respond to the holonic paradigm concepts and principles. The automatic gate opening is conditioned with several criteria conjunction (biometrics identifications, RFID identification, access permissions, authorized paths, status of the zone at time t, etc.). A multicriteria decision aid method is thus deployed in each access gate to merge biometrics identifications responses and to automatically treat the real-time access authorization requests. First, a state of art related to the biometric recognition, the contribution of multimodal biometric, the RFID technology and the physical access control based on biometric, was done. Then, an intelligent, isoarchic and multicriteria control of people flow system was proposed, including the use of multimodal biometric and RFID. At the end, a system simulation test bed was implemented to control prisoners flow in a jail. It supports the integration of various biometrics and RFID technologies
4

Indriago, Carlos. "Application du paradigme holonique aux systèmes de contrôle hybrides." Nantes, 2015. https://archive.bu.univ-nantes.fr/pollux/show/show?id=f9d22c8d-ecf1-40bd-9175-af76b71d2eaa.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux travaux s’intéressent à l’interaction entre des process de fabrication continue et des algorithmes de planification discrets, ce qui a créé une classe de systèmes hybrides appelées « Hybrid Control Systems » (HCS). Ces systèmes peuvent être décomposés en trois niveaux distincts : les niveaux contrôleur, atelier et interface. Les HCS sont traditionnellement modélisés par des systèmes à commutation représentant le système complet plutôt que des ressources atomiques. De ce fait, les process de reconfiguration sont complexes car il est nécessaire de considérer le système dans sa globalité, rendant les HCS peu flexibles et plus sensibles aux incertitudes. Ce besoin de flexibilité a donc poussé plusieurs équipes à travailler sur l’application du paradigme holonique aux HCS. L’objectif de cette thèse est de démontrer la possibilité d’appliquer pratiquement directement l’une des architectures de référence holonique des systèmes à évènements discrets aux HCS. Pour ce faire, nous proposons une nouvelle architecture appelée Holonic Hybrid Control Model (H²CM), basée sur l’architecture PROSA, et son application sur les HCS. Deux cas d’études sont présentés pour vérifier le fonctionnement correct du modèle proposé ; le premier est un exemple typique de la littérature des systèmes hybrides appelé Système à Commutations d’Arrivée, tandis que le second est inspiré d’un process industriel de génération d’électricité, spécifiquement un Process à Cycles Combinés. Ces deux cas d’études ont été simulés et un ensemble d’expérimentations ont été menées afin d’évaluer les caractéristiques de flexibilité, autonomie, coopération, performance et stabilité du système de contrôle obtenu
Several studies typically arise from the interaction of discrete planning algorithms and continuous processes, normally called hybrid control systems. It consists in three distinct levels, the controller, the plant and the interface. Hybrid control systems are conventionally modeled by switching patterns using the whole system instead of atomic resource. Therefore, the reconfiguration process is complex because it must take into account the system as a whole, making the hybrid control systems inflexible and more susceptible to uncertainties. The need for flexibility thus leads several teams to investigate the application of holonic paradigm to hybrid control systems. The objective of this document is to demonstrate the possibility to apply almost directly a holonic discrete-event based reference architecture to hybrid control systems. To do this, it is proposed a model called holonic hybrid control model (H2CM) derived from the PROSA architecture application on hybrid control systems. Two study cases were taken for verifying the proper operation of the proposed model; the first is a typical example from the hybrid systems literature call switched arrival systems and a second is an example from a real process in industrial electricity generation process, specifically a Combined Cycle Plant (CCP). Both study cases were simulated in Java and a series of experiments looking for measure flexibility, autonomy, cooperativeness, performance and stability were applied
5

Gamboa, Quintanilla Francisco. "Couplage des Architectures Holonique et Orientée-Services pour la Conception de Systèmes de Production Agiles." Nantes, 2015. https://archive.bu.univ-nantes.fr/pollux/show/show?id=64061e32-a0b3-4a56-92ad-2d4da2fa5239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour atteindre des objectifs en termes de réactivité, flexibilité, coûts et productivité, les entreprises recherchent des solutions remplaçant les systèmes de contrôle manufacturiers conventionnels afin de gagner en robustesse, adaptabilité, configuration rapide et maximisation de l’utilisation des ressources. Les Architectures Holoniques et Orientées-Services ont été proposées en tant que solutions de conception pour de tels types de systèmes, le premier dans le domaine manufacturier fournissant un contrôle flexible, le dernier en informatique au niveau process. Leur combinaison a été reconnue comme une solution encore plus attractive pour la conception des systèmes de production futurs. Ce travail propose une architecture pour Système de Production Holonique Orienté-Services (SoHMS) basée sur les produits en tant que méthodologie pour modéliser les systèmes de production flexibles en utilisant un ensemble de modèles et méthodologies pour sa spécification. Au niveau des modèles, notre contribution se porte sur un modèle de service adapté à la production, un modèle flexible de process basé sur les Réseaux de Petri (RdP), un protocole d’orchestration et des stratégies pour l’ordonnancement et la planification intégrés de ces process (IPPS) afin d’explorer efficacement les solutions offertes tout en évitant une explosion combinatoire, et des modèles et protocoles holoniques permettant de former une architecture SoHMS. Au niveau méthodologique, nous proposons un framework permettant de concevoir des services de production et des spécifications de process, la création d’une ontologie de services d’application et une méthodologie pour modéliser les gammes sous forme de RdP
In order to achieve responsiveness, flexibility, cost reduction and increased productivity, companies searching for solutions to conventional manufacturing control in terms of robustness, adaptability, rapid configuration and an efficient use of resources. The Holonic and Service-oriented Architectures have been proposed as solutions for the conception of such kind of systems, the former ( in the manufacturing), providing flexibility at the control level, the latter ( in the computer science) at a process level. The combination of both has been recognized as a very attractive solution for the design of the Next Generation Manufacturing Systems. However, the integration of the concept of services needs new models to adapt to the manufacturing context, specifically for process planning and scheduling. This work proposes a product driven Service Oriented Holonic Manufacturing System architecture (SoHMS) as a methodology for modeling flexible production systems with a set of models and prescriptive methodologies for its specification. As models, we contribute with a manufacturing service model (MService) and a computational Flexible Petri-Net based Process Model; an orchestration protocol and strategies for the Integrated Process Planning and Scheduling of such processes for the effective and efficient exploration of solutions while dealing with the problem of combinatorial complexity; as well as the holonic models and protocols forming the SoHMS architecture. As methodologies, we propose a framework for: conceiving manufacturing services and processes specifications, the creation of an application service-ontology, and a methodology for modeling flexible petri- net models
6

Mehat, Jean. "Contrôle et programmation des architectures pyramidales." Paris 8, 1989. http://www.theses.fr/1990PA080475.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette etude constitue une contribution au controle et a la programmation des calculateurs massivement parallele dont les unites de calcul sont interconnectees par un reseau en topologie de pyramide. L introduction place notre etude dans le cadre des ordinateurs construits depuis la seconde guerre mondiale, et propose une definition originale du parallelisme et des architectures simd. Le chapitre 2 decrit les proprietes des reseaux d'interconnexion pyramidaux, et les compare aux reseaux en grille et en hypercube. Il contient une description des machines massivement paralleles pyramidales existantes : pclip; gam; papia; et sphinx. Le chapitre 3 presente des algorithmes illustrent les traitements effectues sur les pyramides ; nous mettons en evidence la distinction entre les modes hierarchique et unanime d utilisation de ces machines. Le chapitre 4 decrit un controleur pour la pyramide, base sur la transmission de controle. Il permet de concilier les exigences de synchronisation de l ordre de la centaine de nano-secondes et l identification des interlocuteurs, pour les echanges a travers les ports anonymes de communication entre les couches de processeurs elementaires. Le chapitre 5 decrit le langage de programmation pyr-e, utilise pour mettre en oeuvre les concepts degages aux chapitres 3 et 4. Enfin la conclusion presente les enseignements tires de notre experience avec les architectures pyramides. Apres avoir enumere les problemes que pyr-e laisse ouvert, elle expose les architectures de machine apyramidales auxquelles son adaptation serait profitable
Control and programmation of computers built with processing elements interconencted through a pyramidal netzork are studied. The introduction places the study in the context of computers built since world war ii, and definies parallelism and simd architectures. In chapter 2, the proprieties of pyramidal interconnection networks are described, and compared with thoses of hypercubes and meshes; existing massively parallel pyramid machines pclip, gam, papia and sphinx are described. In chapter 3, algorithms illustrgting processing on the pyramids are presented; two modes of programming these machines: hierarchical and unanimous, are distinguished. In chapter 4, a controller for the pyramid based on control transmission is described ; it allows synchronization in the order of 100ns, and identification of processes. For the exchanges through the anonymous ports interconnenction the processing elements of adjacent levels. In the chapter 5, a programming language implementing the concepts presented in chapters 3 and 4 is described. After exposing the points not solved by pyr-e, a-pyramidel architectures that would benefit from its adaptation are described in the conclusion
7

Rouhana, Nicolas. "Architectures de contrôle de qualité de service." Paris 6, 2001. http://www.theses.fr/2001PA066368.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Cortes, Buitrago Gloria. "Simulations et contrôle pédagogique : architectures logicielles réutilisables." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these porte sur les environnements permettant aux formateurs de developper des simulations pedagogiques. La premiere partie presente un etat de l'art de ces environnements, au regard des differentes taches identifiees par le modele mars (modele, associations, representation, scenario). Elle montre notamment l'interet d'une separation nette entre la simulation proprement dite et le controle pedagogique, ce qui permet d'utiliser differentes approches pedagogiques sur une simulation. Cette etude theorique est completee par une experimentation que nous avons menee avec des enseignants, dans le cadre du projet europeen ariadne, sur l'outil oasis cree par l'equipe arcade sur la base du modele mars. Ces travaux montrent que les outils existants facilitent les taches de l'auteur, mais que la distance cognitive entre ses abstractions et les abstractions proposees par les outils est encore trop grande. Partant de ce constant, l'ideal (utopique) serait d'offrir un outil adaptable au domaine particulier de l'auteur. Adoptant un point de vue genie logiciel, nous proposons dans la deuxieme partie de cette these une solution permettant a un developpeur de construire rapidement des outils adaptes. Cette solution s'appuie sur des techniques de reutilisation basees sur les architectures, les frameworks et les patrons. Nous presentons un framework que nous avons developpe sur la base du modele mars. Nous avons utilise ce framework pour construire une version d'oasis, ainsi que l'outil fenix dedie a la realisation de simulations basees sur des modeles mathematiques simples. La troisieme partie concerne la mise en uvre effective de la separation entre simulation et controle pedagogique preconisee plus haut. Nous proposons argos, une architecture de communication entre simulations et outils de controle pedagogique. Un sous-ensemble d'argos a servi a l'elaboration d'un prototype pour le controle pedagogique de simulations a distance.
9

Simão, Jean Marcelo. "Contribution au Développement d'un Outil de Simulation de Systèmes Holoniques de Production et Proposition d'un Meta-Modèle de Contrôle Holonique." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00083042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent contexte et les tendances autour des systèmes de production modernes, comme la personnalisation de masse, conduisent à des besoins d'améliorations en ce qui concerne l'agilité des organisations de production. Ainsi, des approches agiles ont été proposées telle que l'approche holonique. Dans des Systèmes Manufacturiers Holoniques (HMS) les entités de production, par exemple les ressources et les produits, sont envisagées avec un certain degré d´expertise. Ces entités expertes sont appelées holons (HLs) et leur expertise concerne les habiletés d'autonomie et de collaboration.
L'HMS contient aussi le Contrôle Holonique (HC) qui doit organiser proprement les collaborations des holons pour atteindre de l'agilité. En effet, le développement des HMS demande des outils d'ingénierie d´aide au projet et aux tests. Dans cette thèse, il est proposé un meta-modèle pour HC dont les systèmes dérivés sont simulés dans un outil appelé ANALYTICE II. Cet outil présente une séparation précise entre les entités de contrôle du haut niveau et les ressources émulées.
Premièrement, avant de proposer le meta-modèle pour l´HC, l'holonification de ressource est proposée dans cet environnement. Chaque Resource-HL est obtenue à l'aide d'une ressource virtuelle qui permet d'accéder des données et des services d'une ressource émulée au haut niveau de contrôle. Par la suite, il est proposé le meta-modèle pour l´HC, sur les Resource-HLs, dans une orientation au processus.
L'essence de la solution est inspirée des concepts des Systèmes à Base de Règles (RBS) où les relations causales du contrôle sont traitées par des entités appelées Rules. Le processus d'inférence dans ce genre de RBS a été obtenu grâce à des collaborations basées sur notifications. Les Resource-HLs notifient les Rules par milieu de la connaissance factuelle, comme leurs états. Chaque Rule notifié délibère au moment approprié sur l'exécution d´une certaine action de contrôle.
L'inférence se passe dans une chaîne de notifications grâce à une composition de Resource-HLs et de Rules basées sur agents. Ce type d'inférence apporte des avantages pour l'HC tels que la haute réactivité et le découplage des éléments. Il permet aussi la création de mécanismes coopératifs pour répondre aux besoins du contrôle comme le déterminisme et la résolution de conflits. De plus, cette approche de contrôle orientée aux règles permet d´obtenir une implémentation et une expression cohérentes du contrôle.
Les mécanismes de contrôle sont émergés à partir de la connaissance causale de contrôle exprimée par des experts dans les Rules. Des experts sont exclusivement impliqués dans la connaissance de contrôle appropriée pour exploiter les flexibilités du système en cherchant de l'agilité. En outre, certains experts pourraient être des agents artificiels pour traiter de façon automatique la connaissance des Rules. En résumé, cette solution de HC orientée au processus traite simultanément un ensemble de sujets de contrôle encore en s'agitant d'une solution indépendante et aussi ouverte.
En fait, l'ouverture de la solution permet son interprétation comme une solution orientée au produit. Le contrôle orienté au produit est une tendance pour trouver de l'agilité via le découplage des demandes de production et ses exécutions en utilisant des entités comme les Smart-Product-HLs. Chaque Smart-Product-HL concerne un ordre de production spécifique et personnalisée. Les Smart-Product-HLs, avec une certaine autonomie, utilisent les Resource-HLs pour répondre à ses besoins de production.
Dans l'interprétation du meta-modèle, leurs interactions sont organisées en utilisant les Rules pour la coopération des Resource-HLs qu'empêchent des comportements impropres du système. Dans ce contexte, l'exécution des Rules dépend de l'intérêt explicite des Smart-Product-HLs dans leurs utilisations. En quelque sorte, chaque Smart-Product-HL utilise des Rules comme un genre d'expert. La solution a été appliquée dans un ensemble d´exemples en ANALYTICE II qui ont présenté une certaine indépendance de la simulation, celle-ci parce que chaque système de contrôle n'est pas conscient que les Resource-HLs et les Smart-Product-HLs sont simulés.
10

Abi-Farraj, Firas. "Contributions aux architectures de contrôle partagé pour la télémanipulation avancée." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S120/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien que la pleine autonomie dans des environnements inconnus soit encore loin, les architectures de contrôle partagé où l'humain et un contrôleur autonome travaillent ensemble pour atteindre un objectif commun peuvent constituer un « terrain intermédiaire » pragmatique. Dans cette thèse, nous avons abordé les différents problèmes des algorithmes de contrôle partagé pour les applications de saisie et de manipulation. En particulier, le travail s'inscrit dans le projet H2020 Romans dont l'objectif est d'automatiser le tri et la ségrégation des déchets nucléaires en développant des architectures de contrôle partagées permettant à un opérateur humain de manipuler facilement les objets d'intérêt. La thèse propose des architectures de contrôle partagé différentes pour manipulation à double bras avec un équilibre opérateur / autonomie différent en fonction de la tâche à accomplir. Au lieu de travailler uniquement sur le contrôle instantané du manipulateur, nous proposons des architectures qui prennent en compte automatiquement les tâches de pré-saisie et de post-saisie permettant à l'opérateur de se concentrer uniquement sur la tâche à accomplir. La thèse propose également une architecture de contrôle partagée pour contrôler un humanoïde à deux bras où l'utilisateur est informé de la stabilité de l'humanoïde grâce à un retour haptique. En plus, un nouvel algorithme d'équilibrage permettant un contrôle optimal de l'humanoïde lors de l'interaction avec l'environnement est également proposé
While full autonomy in unknown environments is still in far reach, shared-control architectures where the human and an autonomous controller work together to achieve a common objective may be a pragmatic "middle-ground". In this thesis, we have tackled the different issues of shared-control architectures for grasping and sorting applications. In particular, the work is framed in the H2020 RoMaNS project whose goal is to automatize the sort and segregation of nuclear waste by developing shared control architectures allowing a human operator to easily manipulate the objects of interest. The thesis proposes several shared-control architectures for dual-arm manipulation with different operator/autonomy balance depending on the task at hand. While most of the approaches provide an instantaneous interface, we also propose architectures which automatically account for the pre-grasp and post-grasp trajectories allowing the operator to focus only on the task at hand (ex., grasping). The thesis also proposes a shared control architecture for controlling a force-controlled humanoid robot in which the user is informed about the stability of the humanoid through haptic feedback. A new balancing algorithm allowing for the optimal control of the humanoid under high interaction forces is also proposed
11

Ribeiro, Christiane. "Contributions au contrôle de l'affinité mémoire sur architectures multicoeurs et hiérarchiques." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00685111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les plates-formes multi-coeurs avec un accès mémoire non uniforme (NUMA) sont devenu des ressources usuelles de calcul haute performance. Dans ces plates-formes, la mémoire partagée est constituée de plusieurs bancs de mémoires physiques organisés hiérarchiquement. Cette hiérarchie est également constituée de plusieurs niveaux de mémoires caches et peut être assez complexe. En raison de cette complexité, les coûts d'accès mémoire peuvent varier en fonction de la distance entre le processeur et le banc mémoire accédé. Aussi, le nombre de coeurs est très élevé dans telles machines entraînant des accès mémoire concurrents. Ces accès concurrents conduisent à des ponts chauds sur des bancs mémoire, générant des problèmes d'équilibrage de charge, de contention mémoire et d'accès distants. Par conséquent, le principal défi sur les plates-formes NUMA est de réduire la latence des accès mémoire et de maximiser la bande passante. Dans ce contexte, l'objectif principal de cette thèse est d'assurer une portabilité des performances évolutives sur des machines NUMA multi-coeurs en contrôlant l'affinité mémoire. Le premier aspect consiste à étudier les caractéristiques des plates-formes NUMA que sont à considérer pour contrôler efficacement les affinités mémoire, et de proposer des mécanismes pour tirer partie de telles affinités. Nous basons notre étude sur des benchmarks et des applications de calcul scientifique ayant des accès mémoire réguliers et irréguliers. L'étude de l'affinité mémoire nous a conduit à proposer un environnement pour gérer le placement des données pour les différents processus des applications. Cet environnement s'appuie sur des informations de compilation et sur l'architecture matérielle pour fournir des mécanismes à grains fins pour contrôler le placement. Ensuite, nous cherchons à fournir des solutions de portabilité des performances. Nous entendons par portabilité des performances la capacité de l'environnement à apporter des améliorations similaires sur des plates-formes NUMA différentes. Pour ce faire, nous proposons des mécanismes qui sont indépendants de l'architecture machine et du compilateur. La portabilité de l'environnement est évaluée sur différentes plates-formes à partir de plusieurs benchmarks et des applications numériques réelles. Enfin, nous concevons des mécanismes d'affinité mémoire qui peuvent être facilement adaptés et utilisés dans différents systèmes parallèles. Notre approche prend en compte les différentes structures de données utilisées dans les différentes applications afin de proposer des solutions qui peuvent être utilisées dans différents contextes. Toutes les propositions développées dans ce travail de recherche sont mises en œuvre dans une framework nommée Minas (Memory Affinity Management Software). Nous avons évalué l'adaptabilité de ces mécanismes suivant trois modèles de programmation parallèle à savoir OpenMP, Charm++ et mémoire transactionnelle. En outre, nous avons évalué ses performances en utilisant plusieurs benchmarks et deux applications réelles de géophysique.
12

Pousa, Ribeiro Christiane. "Contributions au contrôle de l'affinité mémoire sur architectures multicoeurs et hiérarchiques." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les plates-formes multi-coeurs avec un accès mémoire non uniforme (NUMA) sont devenu des ressources usuelles de calcul haute performance. Dans ces plates-formes, la mémoire partagée est constituée de plusieurs bancs de mémoires physiques organisés hiérarchiquement. Cette hiérarchie est également constituée de plusieurs niveaux de mémoires caches et peut être assez complexe. En raison de cette complexité, les coûts d'accès mémoire peuvent varier en fonction de la distance entre le processeur et le banc mémoire accédé. Aussi, le nombre de coeurs est très élevé dans telles machines entraînant des accès mémoire concurrents. Ces accès concurrents conduisent à des ponts chauds sur des bancs mémoire, générant des problèmes d'équilibrage de charge, de contention mémoire et d'accès distants. Par conséquent, le principal défi sur les plates-formes NUMA est de réduire la latence des accès mémoire et de maximiser la bande passante. Dans ce contexte, l'objectif principal de cette thèse est d'assurer une portabilité des performances évolutives sur des machines NUMA multi-coeurs en contrôlant l'affinité mémoire. Le premier aspect consiste à étudier les caractéristiques des plates-formes NUMA que sont à considérer pour contrôler efficacement les affinités mémoire, et de proposer des mécanismes pour tirer partie de telles affinités. Nous basons notre étude sur des benchmarks et des applications de calcul scientifique ayant des accès mémoire réguliers et irréguliers. L'étude de l'affinité mémoire nous a conduit à proposer un environnement pour gérer le placement des données pour les différents processus des applications. Cet environnement s'appuie sur des informations de compilation et sur l'architecture matérielle pour fournir des mécanismes à grains fins pour contrôler le placement. Ensuite, nous cherchons à fournir des solutions de portabilité des performances. Nous entendons par portabilité des performances la capacité de l'environnement à apporter des améliorations similaires sur des plates-formes NUMA différentes. Pour ce faire, nous proposons des mécanismes qui sont indépendants de l'architecture machine et du compilateur. La portabilité de l'environnement est évaluée sur différentes plates-formes à partir de plusieurs benchmarks et des applications numériques réelles. Enfin, nous concevons des mécanismes d'affinité mémoire qui peuvent être facilement adaptés et utilisés dans différents systèmes parallèles. Notre approche prend en compte les différentes structures de données utilisées dans les différentes applications afin de proposer des solutions qui peuvent être utilisées dans différents contextes. Toutes les propositions développées dans ce travail de recherche sont mises en œuvre dans une framework nommée Minas (Memory Affinity Management Software). Nous avons évalué l'adaptabilité de ces mécanismes suivant trois modèles de programmation parallèle à savoir OpenMP, Charm++ et mémoire transactionnelle. En outre, nous avons évalué ses performances en utilisant plusieurs benchmarks et deux applications réelles de géophysique
Multi-core platforms with non-uniform memory access (NUMA) design are now a common resource in High Performance Computing. In such platforms, the shared memory is organized in an hierarchical memory subsystem in which the main memory is physically distributed into several memory banks. Additionally, the hierarchical memory subsystem of these platforms feature several levels of cache memories. Because of such hierarchy, memory access costs may vary depending on the distance between tasks and data. Furthermore, since the number of cores is considerably high in such machines, concurrent accesses to the same distributed shared memory are performed. These accesses produce more stress on the memory banks, generating load-balancing issues, memory contention and remote accesses. Therefore, the main challenge on a NUMA platform is to reduce memory access latency and memory contention. In this context, the main objective of this thesis is to attain scalable performances on multi-core NUMA machines by controlling memory affinity. The first goal of this thesis is to investigate which characteristics of the NUMA platform and the application have an important impact on the memory affinity control and propose mechanisms to deal with them on multi-core machines with NUMA design. We focus on High Performance Scientific Numerical workloads with regular and irregular memory access characteristics. The study of memory affinity aims at the proposal of an environment to manage memory affinity on Multi-core Platforms with NUMA design. This environment provides fine grained mechanisms to manage data placement for an application by using compilation time and architecture information. The second goal is to provide solutions that show performance portability. By performance portability, we mean solutions that are capable of providing similar performances improvements on different NUMA platforms. In order to do so, we propose mechanisms that are independent of machine architecture and compiler. The portability of the proposed environment is evaluated through the performance analysis of several benchmarks and applications over different platforms. Last, the third goal of this thesis is to design memory affinity mechanisms that can be easily adapted and used in different parallel systems. Our approach takes into account the different data structures used in High Performance Scientific Numerical workloads, in order to propose solutions that can be used in different contexts. We evaluate the adaptability of such mechanisms in two parallel programming systems. All the ideas developed in this research work are implemented in a Framework named Minas (Memory affInity maNAgement Software). Several OpenMP benchmarks and two real world applications from geophysics are used to evaluate its performance. Additionally, Minas integration on Charm++ (Parallel Programming System) and OpenSkel (Skeleton Pattern System for Software Transactional Memory) is also evaluated
13

Jalier, Camille. "Communication et contrôle dans les architectures homogènes de circuits pour télécommunications." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20033/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de thèse s'intéressent à la problématique de contrôle et de communication dans le domaine de la conception des systèmes numériques embarqués pour les applications de télécommunication de quatrième génération. La complexité des applications couplée aux besoins de productivité croissants impose de repenser les méthodologies de conception et les architectures sous jacentes. Afin de lever ces verrous, nous proposons plusieurs contributions originales. En effet, une méthodologie d'exploration d'un espace de conception ainsi qu'une architecture basée sur des noeuds de traitements homogènes et flexibles interconnectés à travers un réseau sur silicium sont proposées. Chaque noeud de traitement possède plusieurs blocs visant à exécuter efficacement et dynamiquement les applications de télécommunication. Pour répondre aux contraintes de faible consommation, nous proposons plusieurs solutions innovantes afin de minimiser cette métrique notamment au travers de techniques de migration de tâches
This PhD research aims to solve challenges about control and communication in the design of digital embedded systems for 4G telecom applications. The application complexity added to the increasing productivity gap force to think about new design methodologies and the underlying architectures. Several new research directions is proposed in this work. A methodology for design space exploration and a digital architecture based on homogeneous and flexible processing units interconnected by a Network-on-Chip is proposed. A processing unit is a cluster of DSPs controled by a MIPS processor to compute telecom applications. To meet low power constraints, we propose optimization techniques based on resource management including task migration
14

Braneci, Mohamed. "Protocoles de contrôle d'erreurs pour des nouvelles architectures de réseaux de telecommunications." Paris, ENST, 1997. http://www.theses.fr/1997ENST0048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour de nombreuses applications le contrôle d'erreur est un problème crucial qu'il faut résoudre en tenant compte d'exigences souvent antagonistes, comme le besoin d'assurer une transmission fiable tout en maintenant un débit utile élevé et des délais de transmission et de traitement faibles. L'objectif de cette thèse est de résoudre ce problème complexe d'optimisation en combinant des codes correcteurs d'erreurs appropries avec des stratégies de retransmission adéquates. Deux contextes sont envisages dans la thèse : les réseaux radio-mobiles bases sur une méthode d'accès tdma, et le réseau rnis large bande utilisant l’ATM. Dans la première partie de la thèse, on propose un protocole de contrôle de liens adapte à la transmission de courts messages à travers un canal radio bruite et fluctuant. Les systèmes radio-mobiles numériques actuels (gsm, dect) sont orientes circuits et ne sont pas adaptés à la transmission de ces messages courts, ni aux sources a débit variable. Le protocole propose est base sur une stratégie hybride arq/fec de type ii. Celle-ci adapte la qualité du canal en envoyant une redondance supplémentaire à la demande lorsque le canal se dégrade. L'originalité de ce protocole est qu'il tient compte des erreurs non détectées qui surviennent lors d'un fonctionnement réel du protocole. En effet, un mécanisme nouveau à été introduit pour gérer les ambiguïtés lorsque ces erreurs affectent la signalisation du protocole. La seconde partie de la thèse traite du multicast fiable dans un réseau atm. Bien que le réseau atm possède un taux d'erreurs faible, la nature sporadique du trafic peut, sur une courte période, créer des débordements engendrant un taux de perte de cellules important. Les stratégies arq ne sont pas appropriées à cause des délais et de la gestion difficile des acquittements. La solution proposée est basée sur un fec adaptatif qui permet, grâce à un mécanisme nouveau de découpe des messages, de ne rajouter que la redondance nécessaire avec chaque message transmis.
15

Chotin-Avot, Roselyne. "Architectures matérielles pour l'arithmétique stochastique discrète." Paris 6, 2003. http://hal.upmc.fr/tel-01267458.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Heudin, Jean-Claude. "Architectures fondées sur la connaissance pour l'exécution et le contrôle de processus complexes." Paris 11, 1988. http://www.theses.fr/1988PA112347.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une contribution à la réalisation d'architectures fondées sur l'exploitation de la connaissance pour le contrôle en Temps Réel de processus complexes. Après avoir défini la complexité d'un sysème à partir de trois attributs fondamentaux : le parallélisme, le Temps réel et la Connaissance, nous étudions les techniques de la programmation temps réel et celles permettant la manipulation· de la connaissance. A partir de ces travaux, nous proposons un système exécutif temps réel distribué, basé sur un codage original sous la forme de règles de comportements et de tâches déclaratives. L'introduction de techniques d'Intelligence Artificielle dans le domaine du contrôle pose néanmoins un problème d'efficacité. Pour le résoudre, une architecture RISC spécialisée pour l'exécution du traitement symbolique est étudiée. En conclusion, nous donnons les résultats ct performances obtenus, ainsi que les perspectives de prolongements de ces travaux
This thesis describes studies upon Knowledge-based architectures for real-time control of complex processes. We first introduce a definition of complexity based on three major attributes: parallelism, Real-time and Knowledge. After a careful study of Real-time programming and Knowledge-based related techniques, we present a Real-time distributed executive, called KOSTM, based on an original encoding by means of behavior rules and declarative tasks. But, the use of Artificial Intelligence techniques magnifies the efficiency problem. J Thus, to solve this problem, we design a tagged-RISC architecture for an efficient execution of symbolic processing. As a conclusion we give results and lay out future extensions of this research
17

Sandt, Frédéric. "Architectures de contrôle pour robots mobiles : vers une conception orientée contraintes du superviseur." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these s'inscrit dans le cadre de la robotique mobile lourde, et concerne plus particulierement les aspects decisionnels, a savoir les fonctions de planification et de controle. Elle couvre la conception et la realisation des architectures de controle du robot autonome de transport de charges lourdes first et du robot teleopere d'intervention sumo, respectivement de type hierarchique et multi-agents centralise. Elle met en evidence l'interet d'une methode de conception du superviseur, a la fois externe (i. E. Specification proche du comportement observable) et incrementale (i. E. Ajout de nouvelles regles comportementales sans deteriorer le systeme courant), tant pour la phase de codage que pour la phase de mise au point en environnement reel. En reponse, elle propose une approche de conception orientee contraintes, exploitant certains principes des approches comportementales et adaptatives, mais ou la connaissance est explicite et manipulable par le concepteur : le superviseur est construit incrementalement via la specification de comportements elementaires et de contraintes (e. G. De priorite, d'exclusion et d'ordonnancement), et ceci en fonction des retours d'experience. La programmation par contraintes est envisagee dans ce cadre. Enfin, elle definit une structure generique de superviseur, orientee contraintes, combinant des agents decisionnels et des agents cognitifs : les agents decisionnels implementent les comportements elementaires du robot en reaction a l'environnement courant ; les agents cognitifs ont une action transversale d'arbitrage, d'exclusion et d'ordonnancement, et reposent sur des techniques de programmation par contraintes. Cette structure a ete appliquee et evaluee dans le cadre des robots first et sumo.
18

Adouane, Lounis. "Architectures de contrôle comportementales et réactives pour la coopération d'un groupe de robots mobiles." Phd thesis, Université de Franche-Comté, 2005. http://tel.archives-ouvertes.fr/tel-00128160.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contrôler un système multi-robots hautement dynamique au sein duquel évolue un grand nombre d'entités autonomes réactives est un challenge à la fois scientifique et technologique en plein essor. En effet, ceci exige non seulement d'utiliser des entités robotiques les plus élémentaires possibles mais nécessite également au niveau du contrôle, de s'éloigner davantage des conceptions centralisées et cognitives. La démarche consiste à focaliser la conception du contrôle sur l'individu élémentaire constituant le système multi-robots en prenant en compte les différentes interactions locales de cet individu avec les autres entités robotiques avec lesquels il est censé coopérer. Des effets de masse maîtrisés peuvent être ainsi obtenus et vont permettre d'augmenter à la fois la vitesse, la flexibilité et la robustesse d'exécution des tâches complexes entreprises. Les travaux de recherche présentés dans ce mémoire partent du principe d'une conception ascendante (Bottom-Up) des architectures de contrôle et ce afin de briser la complexité inhérente aux systèmes multi-robots. Plus spécifiquement, nous proposons un Processus de Sélection d'Action Hiérarchique appelé PSAH qui permet à l'échelle du robot de coordonner l'activité d'un ensemble de primitives élémentaires (comportements) d'une manière hiérarchique et flexible, et à l'échelle du groupe de robots d'atteindre une coordination entre robots favorisant des buts globaux. Les performances du PSAH ont été améliorées par la suite via l'adjonction d'un mécanisme de fusion d'actions approprié conduisant à un nouveau processus de sélection appelé PSAHH (PSAH-Hybride). Les formalismes des algorithmes génétiques ont été utilisés par la suite pour proposer une méthodologie permettant l'obtention des paramètres prépondérants pour le fonctionnement du PSAHH. La validation des résultats s'est effectuée au travers d'expérimentations sur des mini-robots ALICE et plus largement sur un ensemble d'études statistiques réalisées sur un grand nombre de données obtenu grâce au simulateur MiRoCo (Mini-Robotique Collective). Ce simulateur a été conçu et développé dans le cadre de nos travaux de thèse dans le but de simuler d'une manière précise et rigoureuse des systèmes multi-robots à forte dynamique d'interaction.
19

Martins, Goncalves Philippe. "Architectures de contrôle et middleware pour les réseaux de prochaines générations et évaluation de performances." Paris, ENST, 2000. http://www.theses.fr/2000ENST0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Deux approches sont actuellement envisagées pour aborder le développement de nouveaux services sur des réseaux à haut débits. La première approche est basée sur la technique réseau intelligent qu'elle étend, mais dont elle utilise des protocoles éprouves comme la signalisation inap et les services de tcap. Cette technique est fiable, extensible et performante. Elle a fait ses preuves dans le réseau téléphonique commute. Néanmoins le modèle réseau intelligent souffre de temps de développement de services trop important. Dans ces conditions, d'autres groupes tels que ieee p1520 ou tina proposent une autre approche basée sur les principes de la programmation par objets distribues et le paradigme rpc. Ces approches reposent sur l'utilisation de middleware tels que corba de l'omg et java, conçus pour un marché concurrentiel et permettent effectivement de prototyper rapidement de nouveaux services de télécommunications. Toutefois le déploiement d'une telle approche dans un réseau de grande taille, avec de très grands nombres d'appels et des contraintes fortes de performance est un problème loin d'être maitrise. Dans ce travail nous avons donc cherche à comprendre les contraintes de performance dans la réalisation d'une architecture d'exécution de service et à identifier quelles fonctions requièrent une grande réactivité et quelles fonctions nécessitent avant tout une grande flexibilité. Les fonctions du plan contrôle, responsables de l'établissement et du relâchement des appels, font partie de la première catégorie ou le critère est la réactivité. Les fonctions du plan service, responsables de l'exécution de la logique d'un service de telecommunication font partie de la deuxième catégorie ou le critère est la flexibilité. Tout le travail mène dans le cadre de cette thèse vise à définir un plan contrôle adapte aux besoins des nouveaux réseaux multimédia et à illustrer les relations existant entre le plan de service et le plan de contrôle.
20

Limal, Steve. "Architectures de contrôle-commande redondantes à base d'Ethernet Industriel‎ : ‎modélisation et validation par model-checking temporisé." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00468531.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire s'intéressent aux mécanismes de redondance spécifiés par un protocole de réseau de terrain sur Ethernet. L'objectif est de valider la spécification par rapport à des exigences de disponibilité. Le contexte industriel des travaux nous a amenés à : 1) privilégier une validation par vérification formelle. Le model-checking temporel a été retenu. En effet, le caractère critique des applications industrielles pour lesquelles doit être intégré le protocole impose une vérification exhaustive des propriétés. Les nombreux paramètres temporels permettant de décrire le fonctionnement du protocole nous ont amenés à favoriser une technique prenant en compte le temps. 2) proposer une modélisation par automates temporisés modulaire ainsi qu'une méthode d'instanciation. Celles-ci permettent d'adapter facilement le modèle à vérifier à une architecture de réseau de terrain envisagée lors de la phase d'étude d'une affaire. 3) proposer des abstractions qui favorisent la vérification du modèle par le moteur de model-checking temporel. Les propriétés vérifiées traduisent l'aptitude des mécanismes de redondance à compenser une défaillance du médium ou de l'animation des échanges. Afin d'illustrer la pertinence de ces propositions, la méthode d'instanciation est appliquée à deux architectures et une campagne de vérifications est menée et analysée.
21

Miermont, Sylvain. "Contrôle distribué de la tension d'alimentation dans les architectures GALS et proposition d'un sélecteur dynamique d'alimentation." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors que le besoin en puissance de calcul augmente, les contraintes sur la consommation des circuits intégrés n’ont jamais été aussi fortes. L’ajustement dynamique de la tension d’alimentation permet d’accroitre l’efficacité énergétique en ajustant le compromis entre puissance de calcul et puissance électrique consommée. Toutefois, sur des circuits comportant de nombreuses unités fonctionnelles, le gain reste limité. Ce travail propose une architecture dite LDVS qui s’appuie sur les techniques GALS, et un sélecteur dynamique d’alimentation innovant, afin de contrôler à grain fin la performance énergétique d’un circuit intégré. Ce sélecteur d’alimentation, compact et facilement intégrable, a été implémenté sur un prototype en CMOS 65 nm et ses performances validées. Enfin, une extension de l’architecture LDVS, est proposée afin de compenser les problèmes liés à la variabilité, particulièrement critiques dans les technologies les plus récentes
The need for more computing power grow stronger, but constraints on power consumption of integrated circuit had never been so strong. Dynamic supply voltage scaling allows a better energy efficiency by adjusting the trade. Off between computing power and electric power. However, on circuits with numerous functional units, gains of this technique are limited if units processing load is uncorrelated. This work proposes an architecture called LDV~ based on globally asynchronous (GALS) techniques, and an innovative dynamic power supply selector, allowing fine-grain control of energy efficiency in an integrated circuit. This compact and easy to integrate power supply selector had been implemented in a 65 nm CMOS prototype and its characteristics were validated. Finally, an extension of the LDVS architecture, called LA YS, is proposed to compensate variability, which is a critical problem in new CMOS technologies, and to transform a spread in performance into a spread in energy efficiency
22

Limal, Steve. "Architectures de contrôle-commande redondantes à base d’Ethernet Industriel : modélisation et validation par model-checking temporisé." Cachan, Ecole normale supérieure, 2009. http://tel.archives-ouvertes.fr/tel-00468531/fr/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire s'intéressent aux mécanismes de redondance spécifiés par un protocole de réseau de terrain sur Ethernet. L'objectif est de valider la spécification par rapport à des exigences de disponibilité. Le contexte industriel des travaux nous a amenés à : 1) privilégier une validation par vérification formelle. Le model-checking temporel a été retenu. En effet, le caractère critique des applications industrielles pour lesquelles doit être intégré le protocole impose une vérification exhaustive des propriétés. Les nombreux paramètres temporels permettant de décrire le fonctionnement du protocole nous ont amenés à favoriser une technique prenant en compte le temps. 2) proposer une modélisation par automates temporisés modulaire ainsi qu'une méthode d'instanciation. Celles-ci permettent d'adapter facilement le modèle à vérifier à une architecture de réseau de terrain envisagée lors de la phase d'étude d'une affaire. 3) proposer des abstractions qui favorisent la vérification du modèle par le moteur de model-checking temporel. Les propriétés vérifiées traduisent l'aptitude des mécanismes de redondance à compenser une défaillance du médium ou de l'animation des échanges. Afin d'illustrer la pertinence de ces propositions, la méthode d'instanciation est appliquée à deux architectures et une campagne de vérifications est menée et analysée
This work deals with an Ethernet based protocol that specifies redundancy mechanisms. The objective is to check the specification respect to availability properties. The industrial context of this work led us to : 1) give priority to a formal method. Temporal model-checking has been selected. Indeed the protocol must be used in critical industrial control systems. Therefore a thorough verification is necessary. The protocol description depends on many temporal parameters. Consequently, a technique taking time into account has been preferred. 2) put forward a method to instantiate our model. This timed automata based model has been designed to be modular. Thus the modelling of any network architecture is possible without requiring any modelling skills from the engineer. 3) put forward abstractions in order to improve the model-checking time and memory consumption. Checked properties describe the redundancy mechanisms capability to keep communications working event in case of medium or end device failure. In order to illustrate the relevance of our proposals, we apply the method of instantiation to two types of network architecture. Then some experiments are conducted and studied
23

Deschamps, Rémy. "Architectures et facteurs de contrôle des systèmes fluviatiles et turbiditiques. De la caractérisation à la modélisation." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS611.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes turbiditiques et fluviatiles présentent des similitudes, notamment dans leur morphologie (incisions, chenaux), mais de nombreuses différences sont notables, en ce qui concerne l’architecture des dépôts, et l’évolution spatio-temporelle de ces deux systèmes, pourtant génétiquement liés. La comparaison de ces systèmes porte sur l’interaction des différents processus physiques impliqués dans la mise en place et dans le fonctionnement de ces systèmes, et sur les architectures des dépôts préservés. Les systèmes continentaux et marins profonds sont caractérisés d’abord par les processus physiques conduisant à l’érosion, au transport puis au dépôt des particules sédimentaires. Ces processus sont contrôlés par divers forçages locaux ou globaux, façonnant ainsi leurs morphologies qui évolue dans l’espace (le long du profil amont-aval), et dans le temps. Ces systèmes sont génétiquement liés et l’approche « source-to-sink » comprends l’ensemble des processus continentaux et marins qui contribuent à la production, au transport et au dépôt des sédiments. La compréhension de ces facteurs de contrôles est essentielle pour comprendre et prédire la sédimentation enregistrée dans les bassins à différentes échelles. L’ensemble de ces paramètres est responsable de l’organisation interne des réservoirs sableux, et la compréhension de ces différents paramètres vont permettre de contraindre les modèles numériques, dont l’objectif est, selon l’échelle considérée (bassin ou réservoir), de prédire la distribution des faciès sédimentaires (réservoirs, roches mères, couvertures), ou de minimiser les risques lors de l’exploitation d’un réservoir
The turbiditic and fluvial systems have similarities, in particular in their morphology (incisions, channels), but many differences are notable, as regards the architecture of the deposits, and the spatio-temporal evolution of these two systems, yet genetically linked. The comparison of these systems concerns the interaction of the different physical processes involved in the origin and the behaviour of these systems, and on the architectures of the preserved deposits. Continental and deep sea systems are characterized primarily by the physical processes leading to the erosion, transport and subsequent deposition of sedimentary particles. These processes are controlled by various local or global forcing, thus shaping their morphologies that evolves in space (along the upstream-downstream profile), and over time. These systems are genetically linked and the "source-to-sink" approach includes all the continental and marine processes that contribute to sediment production, transport and deposition. Understanding these controlling factors is crucial in the understanding and the prediction of sedimentation recorded in basins, at different scales. The allocyclic and the autocyclic controlling factors are responsible for the internal organization of the sandy reservoirs, and the understanding of these different parameters will make it possible to constrain the numerical models, whose objective is, according to the scale considered (basin scale or reservoir scale), to predict the distribution of sedimentary facies (reservoirs, source rocks, seals), or to minimize the risks when producing a reservoir
24

Le, Mortellec Antoine. "Proposition d'une architecture de surveillance "active" à base d'agents intelligents pour l'aide à la maintenance de systèmes mobiles - Application au domaine ferroviaire." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2014. http://tel.archives-ouvertes.fr/tel-00947981.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces deux dernières décennies, les systèmes embarqués ont été introduits dans de nombreux domaines d'application (transport, industrie, habitat, médical...). Ces systèmes se sont vu confier des tâches plus importantes pour délivrer de nouveaux services aux utilisateurs avec des délais de mise sur le marché toujours plus courts et à moindre coût. L'intégration rapide de ces systèmes au sein de produits manufacturés est un avantage concurrentiel pour les industriels. Cependant, les pannes associées à ces systèmes et le niveau de complexité croissant des équipements ont rendu les interventions de maintenance bien plus délicates. L'identification des causes de certaines pannes représente actuellement un véritable challenge dans les activités de la maintenance. Elles entrainent une indisponibilité excessive des équipements.Cette thèse propose une architecture générique de surveillance "active" pour l'aide à la maintenance de systèmes mobiles. Cette architecture repose sur des entités de surveillance "intelligentes" capables d'évaluer l'état de santé des équipements surveillés. Notre contribution se situe à la rencontre de différentes communautés de Recherche et s'appuie notamment sur des concepts développés par lacommunauté PHM (Pronostics and Health Management).L'architecture proposée est mise en œuvre et appliquée a la surveillance d'un système réel de transport ferroviaire dans le cadre du projet SURFER (SURveillance active FERroviaire) conduit par Bombardier-Transport.
25

Canevet, David. "Architectures électroactives polyfonctionnelles à base tétrathiafulvalène : Xérogels conducteurs et contrôle conformationnel à travers les relais calixarène et biphényle." Phd thesis, Université d'Angers, 2010. http://tel.archives-ouvertes.fr/tel-00492345.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le tétrathiafulvalène (TTF) est un composé organique remarquable de par la simplicité de sa structure et la diversité de ses applications. Depuis près d'une quarantaine d'années, ce donneur d'électrons-π a stimulé la recherche autour de matériaux cristallins conducteurs voire supraconducteurs. Tout récemment, le TTF a fait son apparition dans de nouveaux types de matériaux organiques, les organogels. La première partie de ce travail décrit la conception et l'optimisation structurale des premiers précurseurs d'organogels multifonctionnels à base TTF. L'étude des différents paramètres structuraux gouvernant la formation des organogels et la caractérisation des xérogels correspondants, par différentes techniques de microcopie, est présentée. La robustesse de ces gels est illustrée par leur persistance après oxydation à l'iode, fournissant des xérogels conducteurs. La présence d'unités pyrène au sein des molécules gélifiantes a également permis une incorporation maîtrisée de nanotubes de carbone simple paroi (NTC). Ces premiers exemples de xérogels conducteurs intégrant des NTCs présentent une morphologie et des propriétés conductrices remarquablement modifiées par rapport aux gels qui en sont dépourvus, traduisant un effet positif de structuration du gel par les NTCs. La multifonctionnalité de ces composés associant sites redox, de complexation et fluorophores, leur confère également un intérêt vers la préparation de portes logiques moléculaires, pour lesquelles une étude des paramètres initiaux (électrochimie, fluorescence) est réalisée. La seconde partie de ce travail s'inscrit dans la continuité, par la synthèse de différentes architectures moléculaires conformationnellement flexibles, associant le TTF et différents motifs accepteurs ou fluorophores sur la périphérie d'édifices calix[4]arène ou biphényle. Différents aspects du comportement dynamique de ces systèmes, ainsi que la synthèse de nouvelles briques moléculaires sont explorés.
26

Ferveur, Olivier. "Optimisation des architectures IP/MPLS de transport mutualisé." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00418026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La technologie IP autrefois utilisée uniquement dans le cadre d'Internet est de nos jours le support de nombreuses autres applications dé-corrélées telle que la téléphonie ou encore la télévision.
Cette multi-utilisation du standard a entraîné une volonté de mutualisation au sein du coeur de réseau. Aujourd'hui, les fonctionnalités apportées par MPLS permettent une virtualisalisation des infrastructures de réseau IP sur un unique coeur , entraînant une complexification de la gestion de la ressource. Dans cette thèse, nous étudierons les possibilités actuelles de gestion de ce réseau mutualisé et nous proposerons l'adjonction d'un mécanisme de gestion appelé TDCN. Nous démontrerons les nombreuses possibilités offertes par ce nouveau système pour ainsi optimiser l'utilisation du réseau.
27

Lavado, Villa Luiz Fernando. "Architectures de puissance et commandes associées pour la gestion des ombrages dans les installations photovoltaïques. Power Architectures and Control Systems Associated to the Management of Shadows in Photovoltaic Plants." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00951411.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'énergie photovoltaïque est à nos jours l'une des sources intermittentes les plus développée. Plusieurs années de recherche confèrent une importante maturité à la fois aux modules et aux systèmes de extraction et traitement de son électricité. Cependant, il lui reste encore un important obstacle à franchir avant son utilisation à large échelle : la présence des ombres. Alors que plusieurs solutions ont été déjà proposées pour ce problème, la recherche sur l'ombre en tel que phénomène complexe reste embryonnaire. Cette thèse a pour but de combler ce besoin à la fois en étudiant la présence d l'ombre et en y proposant une nouvelle réponse. L'étude de l'ombre comprend la proposition d'une théorie sur l'intermittence qui prend en compte des aspect à la fois électriques et optiques. A travers de cette théorie, une relecture de la littérature est aussi proposée et donne lieu à une classification des solutions existantes en séries ou parallèles. Les solutions séries utilisent plusieurs structures d'électronique de puissance pour extraire l'énergie d'un nombre plus restreint des cellules photovoltaïques et par conséquent y confinent l'impact de l'ombre. En contre partie, les solutions parallèles utilisent des structures spéciales pour redistribuer le courant parmi les cellules ombrées et illuminées, ce qui amène à l'effacement de l'ombre. La nouvelle réponse à l'ombre proposée dans ce travail s'agit d'une structure parallèle à forte potentiel d'intégration monolithique. Inspirée de son équivalent pour les batteries, cette nouvelle topologie est applicable à plusieurs échelles mais sa commande reste un aspect à maîtriser. Son concept de base est validé au niveau d'un seul module photovoltaïque par la création d'un prototype et une validation expérimentale. Sa commande y est ensuite développée, testée et validée. Le système est capable de détecter la présence de l'ombre, choisir la meilleure stratégie pour la mitiger et l'implémenter en toute autonomie. Le résultat final est une augmentation de la puissance de sortie d'environ 40% dans certains cas.
28

Khoukh, Abdelouahed. "Apport de la RMN diffusionnelle à l’étude des systèmes polymères : extrémités de chaîne, contrôle des architectures et auto-assemblage." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3055/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Résonance Magnétique Nucléaire RMN DOSY (Diffusion Ordered SpectroscopY) 1H est une technique permettant de mesurer les coefficients de diffusion des espèces en solution. Elle permet ainsi d’obtenir des informations structurales de par sa dimension RMN conventionnelle mais également des informations physico-chimiques telles que la taille de la (macro)molécule ou encore la formation d’agrégats. L’objectif de ces travaux a été d’examiner comment les méthodes de RMN (RMN 1D ,2D et DOSY), permettent de fournir des informations sur la caractérisation des matériaux polymères. La première partie de ce travail souligne l’intérêt de la RMN pour la caractérisation de la microstructure de quelques matériaux polymères en s’attardant plus particulièrement sur l’exploration de leurs extrémités de chaînes. La RMN s’est en effet révélée très performante pour établir le lien entre extrémité de chaîne et méthode de polymérisation appliquée. Le deuxième volet de ces travaux concerne l’étude de quelques architectures complexes (type dibloc et tribloc) et la mise en évidence du caractère contrôlé d’une copolymérisation radicalaire grâce à la RMN diffusionnelle. Nous avons également vu comment déterminer la masse moyenne en poids (Mw) par une simple mesure du coefficient d’autodiffusion. Finalement, l’ensemble des travaux présentés dans ce manuscrit a été valorisé grâce à l’étude des interactions par RMN diffusionnelle. Plus particulièrement la RMN DOSY 1H a permis d’observer des phénomènes de micellisation, d’agrégation, d’encapsulation et de relargage de molécules de principe actif
Diffusion Ordered Spectroscopic Nuclear Magnetic Resonance (DOSY NMR 1H) makes it possible to determine physicochemical data such diffusion coefficients. While typical NMR data on the structure of molecules can be obtained, this technique also permits determinations of the physicochemical characteristics, such as molecular sizes or aggregate formation. The objective of this work was to examine how various NMR methodologies, specifically, 1 and 2 dimensional DOSY NMR, can be applied to the characterization of polymers. The first part of the manuscript relates the NMR characterization of some polymeric materials with a special interest in chain-end groups. In particular, we demonstrate the relationships between chain-ends and the polymerization methods employed. In a second part, the potential of the DOSY technique is used to determine controlled features of a radical polymerization resulting in di- and triblock architectures. Molecular weights are also determined by self-diffusion coefficient measurements. The results presented herein demonstrate that diffusional NMR can be effectively employed to understand interactions in polymeric structures. Indeed, DOSY 1H-NMR provides new interesting results concerning micellization, aggregation, encapsulation phenomena and the release of active molecules
29

Fonseca, Mauro Sergio Pereira. "Architectures basées sur les politiques et SLAs pour la gestion et le contrôle des services et réseaux multidomaines émergents." Paris 6, 2003. http://www.theses.fr/2003PA066254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Benarif, Samir. "Plate-forme multi-agent pour la reconfiguration dynamique des architectures logicielles." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité de plus en plus croissante des applications distribuées et embarquées innovantes implique de spécifier, de concevoir et de développer des architectures logicielles capables de réagir aux événements et d'exécuter des changements architecturaux de façon autonome. Le processus d’adaptation pour reconfigurer une architecture doit d’une part, utiliser un certain nombre de techniques, qui peuvent être fortement spécialisées et d’autre part, assurer que les propriétés de qualité de l'architecture sont maintenues. Dans notre thèse, l’idée novatrice consiste à introduire des composants intelligents particuliers ou agents dans une plate-forme de contrôle de l’architecture d’un logiciel. Ces agents, de manière autonome, surveillent l'architecture, exécutent la reconfiguration et l'adaptent aux changements structurels du contexte de l’application. Cette plate-forme contrôle les différents composants et connecteurs de l’architecture et peut ainsi la reconfigurer, l’adapter et la faire évoluer à partir de stratégies spécifiques prés sauvegardés dans la base de connaissances de la plate-forme
A dynamic change to architecture is an active area of research within the software architecture community. The objective of all architecture reconfiguration, adaptation and evolution is the improvement of the quality attributes of the software architecture. Only recently the reconfiguration of software architecture at runtime has grown up considerably for the construction of reliable evolutionary systems. The structure of these systems is dynamic and continuously changing. Consequently, architectures must have the ability to react to events and perform architectural changes autonomously. In this thesis, we provide a new approach based on software multi-agent platform. Such agents are used to supervise the architecture, gather information from it and its environment, capture dynamic changes, and manage them. They monitor the components dynamically and adapt them to structural changes in the architecture. They evaluate dynamically the quality attributes of the architecture. This evaluation will ensure the correctness, robustness, security, availability, etc. As the changes take place so that the system conforms to its architecture and remains in conformance throughout its lifetime
31

Alami, Rachid. "Robots autonomes : du concept au robot. Architectures, représentations et algorithmes." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00165562.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté procède de l'ambition de doter le robot d'un haut niveau de flexibilité et d'adaptation à la tâche en présence d'imprécisions et d'incertitudes liées à celle-ci et à son état interne. Ceci se traduit par le développement de concepts et d'outils visant à permettre au robot de planifier sa tâche et d'en contrôler l'exécution. Une première partie porte sur l'élaboration d'architectures permettant d'intégrer les composantes décisionnelle et fonctionnelle et de mettre en \oe uvre des processus bouclés sur la tâche et sur l'environnement à différents niveaux d'abstraction. Elle présente notamment une architecture de contrôle générique permettant à la fois l'élaboration d'un plan d'actions (processus généralement coûteux en temps calcul et non borné dans le temps), et la disponibilité permanente dans un environnement évolutif (réactivité). Un deuxième aspect concerne le développement de représentations et d'algorithmiques pour la planification et l'interprétation de plans: planification logique et temporelle (au niveau de la mission) mais aussi planification géométrique (plus proche de la tâche). Les contributions portent sur la planification de mission avec prise en compte de contraintes temporelles et du non-déterminisme, la coopération multi-robot, la planification des tâches de manipulation, ainsi que la planification de stratégies de déplacement pour un robot mobile en présence d'incertitudes. La dernière partie présente la réalisation effective de systèmes robotiques complets démontrant les capacités développées et servant de support de validation et d'aiguillons exigeants à l'extension de ces mêmes capacités.
32

Pedron, Antoine. "Développement d'algorithmes d'imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00844749.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de cette thèse se place à l'interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l'adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu'il soit en production ou maintenance. Afin de détecter d'éventuels défauts, de les positionner et les dimensionner, des méthodes d'imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L'évolution du matériel d'acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L'évolution multicoeurs des processeurs généralistes (GPP), ainsi que l'arrivée de nouvelles architectures comme les GPU rendent maintenant possible l'accélération de ces algorithmes.Le but de cette thèse est d'évaluer les possibilités d'accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l'ordonnancement des nids de boucles sur GPP, ainsi que l'ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L'intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme.
33

Pedron, Antoine. "Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme
This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed
34

Kesraoui, Soraya. "Intégration des techniques de vérification formelle dans une approche de conception des systèmes de contrôle-commande : application aux architectures SCADA." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS442/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception des systèmes de contrôle-commande souffre souvent des problèmes de communication et d’interprétation des spécifications entre les différents intervenants provenant souvent de domaines techniques très variés. Afin de cadrer la conception de ces systèmes, plusieurs démarches ont été proposées dans la littérature. Parmi elles, la démarche dite mixte (ascendante/descendante), qui voit la conception réalisée en deux phases. Dans la première phase (ascendante), un modèle du système est défini à partir d’un ensemble de composants standardisés. Ce modèle subit, dans la deuxième phase (descendante), plusieurs raffinages et transformations pour obtenir des modèles plus concrets (codes,applicatifs, etc.). Afin de garantir la qualité des systèmes conçus par cette démarche, nous proposons dans cette thèse, deux approches de vérification formelle basées sur le Model-Checking. La première approche porte sur la vérification des composants standardisés et permet la vérification d’une chaîne de contrôle-commande élémentaire complète. La deuxième approche consiste en la vérification des modèles d’architecture (P&ID) utilisés pour la génération des programmes de contrôle-commande. Cette dernière est basée sur la définition d’un style architectural en Alloy pour la norme ANSI/ISA-5.1. Pour supporter les deux approches, deux flots de vérification formelle semi-automatisés basés sur les concepts de l’IDM ont été proposés. L’intégration des méthodes formelles dans un contexte industriel est facilitée, ainsi, par la génération automatique des modèles formels à partir des modèles de conception maîtrisés par les concepteurs métiers. Nos deux approches ont été validées sur un cas industriel concret concernant un système de gestion de fluide embarqué dans un navire
The design of control-command systems often suffers from problems of communication and interpretation of specifications between the various designers, frequently coming from a wide range of technical fields. In order to address the design of these systems, several methods have been proposed in the literature. Among them, the so-called mixed method (bottom-up/top-down), which sees the design realized in two steps. In the first step (bottom-up), a model of the system is defined from a set of standardized components. This model undergoes, in the second (top-down) step, several refinements and transformations to obtain more concrete models (codes, applications, etc.). To guarantee the quality of the systems designed according to this method, we propose two formal verification approaches,based on Model-Checking, in this thesis. The first approach concerns the verification of standardized components and allows the verification of a complete elementary control-command chain. The second one consists in verifying the model of architecture (P&ID) used for the generation of control programs.The latter is based on the definition of an architectural style in Alloy for the ANSI/ISA-5.1 standard. To support both approaches, two formal semi-automated verification flows based on Model-Driven Engineering have been proposed. This integration of formal methods in an industrial context is facilitated by the automatic generation of formal models from design models carried out by business designers. Our two approaches have been validated on a concrete industrial case of a fluid management system embedded in a ship
35

Chokor, Abbas. "Design of several centralized and decentralized multilayer robust control architectures for global chassis control." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2514.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Contrôle Global du Châssis (CGC) est une tâche cruciale dans les véhicules intelligents. Il consiste à assister le conducteur par l'intermédiaire de plusieurs fonctionnalités automatisées, notamment à des fins de sécurité active et de confort. Etant donné que les dynamiques de ces fonctionnalités sont interconnectées, les performances attendues sont parfois contradictoires. Par conséquent, le CGC consiste à coordonner les différents systèmes ADAS « Advanced Driving Assistance Systems » afin de créer des synergies entre les dynamiques interconnectées pour améliorer les performances globales du véhicule. Plusieurs stratégies de coordination puissantes ont déjà été développées, soit dans le monde académique, soit dans le monde industriel pour gérer ces interconnexions. Du fait que les besoins en matière de sécurité active augmentent d'un côté et que la technologie pouvant être intégrée dans les véhicules évolue, une intense activité de recherche et développement est toujours en cours dans le domaine du contrôle global du châssis. Cette thèse analyse différentes interconnexions dynamiques et développe des nouvelles stratégies CGC dans lesquelles le braquage actif avant, le freinage différentiel actif et les suspensions actives sont coordonnés - tous ensemble ou partiellement afin d'améliorer les performances globales du véhicule, à savoir l'évitement du renversement, la stabilité latérale, le confort de conduite (manœuvrabilité) et confort des passagers. Plusieurs architectures multicouches formées par trois couches hiérarchiques sont proposées. La couche inférieure représente les actionneurs implémentés dans le véhicule qui génèrent leurs entrées de commande en fonction des ordres envoyés depuis la couche intermédiaire. La couche intermédiaire est la couche de contrôle qui est chargée de générer les entrées de contrôle qui minimisent les erreurs entre les variables d'état souhaitées et réelles du véhicule, à savoir les mouvements de lacet, de dérapage, de roulis, de tangage et de soulèvement, quelle que soit la situation de conduite. La couche supérieure est la couche de prise de décision. Elle surveille instantanément la dynamique du véhicule selon différents critères, puis génère des paramètres de pondération pour adapter les performances des contrôleurs en fonction des conditions de conduite, c'est-à-dire pour améliorer la manœuvrabilité, la stabilité latérale, l'évitement du renversement et le confort de conduite du véhicule. Les architectures proposées se diffèrent dans les couches de contrôle et de décision en fonction des actionneurs intégrés proposés. Par exemple, les couches de décisions se diffèrent par les critères qui surveillent la dynamique du véhicule et la manière dont la décision est prise (logique floue ou relations explicites). Les couches de contrôle se diffèrent par leurs structures, où des contrôleurs centralisés et décentralisés sont développés. Dans l'architecture centralisée, un seul contrôleur optimal MEMS Multi-Entrées-Multi-Sorties génère les entrées de commande optimales basées sur la technique de commande LPV/H∞. Dans l'architecture décentralisée, les contrôleurs sont découplés. La technique STSM (Super-Twisting Sliding Mode) est appliquée pour déduire chaque entrée de commande. Les architectures proposées sont testées et validées sur le simulateur professionnel SCANeR Studio et sur un modèle complexe non linéaire du véhicule. La simulation montre que toutes les architectures sont pertinentes pour le contrôle global du châssis. Celle centralisée est optimale, complexe et garantit la stabilité globale, tandis que celle décentralisée ne garantit pas la stabilité globale, mais elle est intuitive, simple et robuste
Global Chassis Control (GCC) is crucial task in intelligent vehicles. It consists of assisting the driver by several automated functionalities especially for active safety and comfort purposes. Due to the fact that the dynamics of these functionalities are interconnected, thus the awaited performances are sometimes contradictory. Hence, the main task in GCC field is to coordinate the different Advanced Driving Assistance Systems (ADAS) to create synergies between the interconnected dynamics in order to improve the overall vehicle performance. Several powerful coordination strategies have already been developed either in the academic world or in the industrial one to manage these interconnections. Because the active safety needs are increasing from one side, and the technology that can be embedded into vehicles is evolving, an intense research and development is still involved in the field of global chassis control. This thesis analyzes di_erent dynamics interconnections and develops new several GCC strategies where the Active Front Steering, Active Differential Braking, and the Active Suspensions are coordinated - all together or partially - to improve the vehicle overall performance i.e. the rollover avoidance, the lateral stability, the driving comfort (maneuverability), and the ride comfort. Several multilayer architectures formed by three hierarchical layers are proposed. The lower layer represents the actuators implemented into the vehicle which generate their control inputs based on the orders sent from the middle layer. The middle layer is the control layer which is responsible to generate the control inputs that minimize the errors between the desired and actual vehicle state variables i.e. the yaw, side-slip, roll, pitch, and heave motions, regardless of the driving situation. The higher layer is the decision making layer. It instantly monitors the vehicle dynamics by di_erent criteria, then, it generates weighting parameters to adapt the controllers performances according to the driving conditions i.e. to improve the vehicle's maneuverability, lateral stability, rollover avoidance, and ride comfort. The proposed architectures di_er in the control and decision layers depending on the proposed embedded actuators. For instance, the decision layers di_er in the monitored criteria and the way the decision is taken (fuzzy logic or explicit relations). The control layers di_er in structure, where centralized and decentralized controllers are developed. In the centralized architecture, one single Multi-Input-Multi-Output optimal controller generates the optimal control inputs based on the Linear Parameter Varying (LPV)/H-infinity control technique. In the decentralized architecture, the controllers are decoupled, where the Super-Twisting Sliding Mode (STSM) technique is applied to derive each control input apart. The proposed architectures are tested and validated on the professional simulator « SCANeR Studio » and on a Full vehicle nonlinear complex model. Simulation shows that all architectures are relevant to the global chassis control. The centralized one is optimal, complex and overall stability is guaranteed, while the decentralized one does not guarantee the overall stability, but it is intuitive, simple, and robust
36

Jean, Xavier. "Maîtrise de la couche hyperviseur sur les architectures multi-coeurs COTS dans un contexte avionique." Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse à la maîtrise de processeurs multi-cœurs COTS dans le but de les rendre utilisables dans des équipements avioniques, qui ont des exigences temps réelles dures. L’objectif est de permettre l'application de méthodes connues d’évaluation de pire temps d’exécution (WCET) sur un ensemble de tâches représentatif d’applications avioniques. Au cours de leur exécution, les tâches exécutées sur différents cœurs vont accéder simultanément à des ressources matérielles qui sont partagées entre les cœurs, en particulier la mémoire principale. Cela pourra entraîner des mises en attente de certains accès que l'on qualifie d'interférences. Ces interférences peuvent avoir un impact élevé sur le temps d'exécution du logiciel embarqué. Sur un processeur COTS, qui est acheté dans le commerce et vise un marché plus large que l'avionque, cet impact n'est pas borné. Nous cherchons à garantir l'absence d'interférences grâce à des moyens logiciels, dans la mesure où les processeurs COTS ne proposent pas de mécanismes adéquats au niveau matériel. Nous cherchons à étendre des concepts de logiciel déterministe de telle sorte à les rendre compatibles avec un objectif de réutilisation de logiciel existant. A cet effet, nous introduisons la notion de logiciel de contrôle, qui est un élément fonctionnellement neutre, répliqué sur tous les cœurs, et qui contrôle les dates des accès des cœurs aux ressources communes de telle sorte à offrir une isolation temporelle entre ces accès. Nous étudions dans cette thèse le problème de faisabilité d'un logiciel de contrôle sur un processeur COTS, et de son efficacité vis à vis d'applications avioniques
We focus in this thesis on issues related to COTS multi-core processors mastering, especially regarding hard real-time constraints, in order to enable their usage in future avionics equipment. We aim at applying existing Worst Case Execution Time (WCET) evaluation methods on a set of tasks similar to those we can find in avionics software. At runtime, tasks executed among different cores are likely to access hardware resources at the same time, e.g. the main memory. It may lead to additional delays due to hardware contention, called “interferences”. Interferences slow down embedded software within ranges that may be important. Additionnally, no bound has been established for their impact on WCET when using COTS processors, that target larger markets than avionics. We try to provide guarantees that all interferences are eliminated through software, as COTS processors do not provide adequate mechanisms at hardware level. We extend deterministic software concepts that have been developed in the state of the art, in order to make them compliant with the use of legacy software. We introduce the concept of "control software", which is functionnaly neutral, is replicated among all cores, and performs active control of core's accesses to shared resources, so that concurrent accesses are temporally isolated. We formalize and study in this thesis the problem of control software feasibility on COTS processors, and questions of efficiency with regard to legacy avionics software
37

Simao, Jean-Marcelo. "Contribution au développement d'un outil de simulation de systèmes holoniques de production et proposition d'un méta-modèle de contrôle holonique = A contribution to the development of a HMS simulation tool and proposition of a meta-model for holonic control = Uma contribuiçao. ." Nancy 1, 2005. http://docnum.univ-lorraine.fr/public/SCD_T_2005_0022_SIMAO.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Ben, Saad Seifallah. "Conception d'un algorithme de coordination hybride de groupes de robots sous-marins communicants. Application : acquisition optique systématique et détaillée des fonds marins." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0052/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente l’étude d’une stratégie de coordination hybride d’un groupe de robots sous-marins pour la recherche d’objets de petites dimensions ou de singularités sur les fonds marins. Chaque robot est équipé d’un module de perception utilisant la librairie de traitement d’image OpenCV qui lui permet d’apercevoir les autres éléments de la meute ainsi que l’environnement d’évolution de la mission.Cette stratégie hybride est constituée de deux phases : une phase de mise en formation géométrique et une phase d’acquisition des données vidéo. La première phase s’appuie sur des algorithmes de type "essaims" alors que la seconde se fonde sur une méthode hiérarchique de coordination. En cas de perte de la formation, le groupe de robots quitte le mode hiérarchique et reprend le mode essaim pour se reformer. Ces changements de modes sont contrôlés par une machine à états finis. Avant d’entamer une expérimentation en grandeur nature, la méthodologie et les algorithmes de coordination doivent être testés et validés par simulation.Dans ce contexte, un simulateur basé sur le logiciel Blender a été conçu de façon à ce qu’il tienne compte des différentes contraintes liées à l’évolution des robots dans l’environnement sous-marin. Les résultats de simulation d’une meute de 3 AUVs montrent la capacité de notre stratégie à optimiser l’exécution d’une mission d’acquisition vidéo par un groupe de robots autonomes contrôlés par la vision et coordonnés par une stratégie hybride
In the underwater environment, the needs of data acquisition have significantly increased over the last decades. As electromagnetic waves show poor propagation in sea water, acoustical sensing is generally preferred. However, the emergence of small and low cost autonomous underwater vehicles (AUV) allow for rethinking the underwater use of optical sensors as their small coverage can be significantly improved by using a fleet of coordinated underwater robots.This paper presents a strategy to coordinate the group of robots in order to systematically survey the seabed to detect small objects or singularities. The proposed hybrid coordination strategy is defined by two main modes. The first mode relies on a swarm algorithm to organize the team in geometrical formation. In the second mode, the robot formation is maintained using a hierarchical coordination. A finite state machine controls the high level hybrid strategy by defining the appropriate coordination mode according to the evolution of the mission. Before sea validation, the behavior and the performance of the hybrid coordination strategy are first assessed in simulation. The control of individual robots relies on visual servoing, implemented with the OpenCV library, and the simulation tool is based on Blender software.The dynamics of the robots has been implemented in a realistic way in Blender by using the Bullet solver and the hydrodynamic coeficcients estimated on the actual robot. First results of the hybrid coordination strategy applied on a fleet of 3 AUV’s, show execution of a video acquisition task by a group of autonomous robots controlled by vision and coordinated by a hybrid strategy
39

Raynal, Olivier. "Architectures de dépôts et facteurs de contrôle d'un système côtier à faibles apports sédimentaires : le littoral languedocien (Golfe du Lion, Sud de la France)." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, la prévision de l'évolution d'un système littoral représente un enjeu social important. De nombreuses études sont réalisées afin de mieux connaitre la dynamique côtière et donc de comprendre les facteurs qui influencent son évolution. Cette dynamique est contrôlée par la morphologie, les apports sédimentaires, l'hydrodynamique, l'eustatisme. . . Qui agissent à des échelles de temps différentes et avec de fortes interactions. A l'échelle géologique, l'architecture des dépôts, contrôlée par l'eustatisme et la subsidence, est parfaitement décrite dans les zones à forts apports sédimentaires. Par contre, dans les zones à faibles apports sédimentaires, l'enregistrement des cortèges côtiers est réduit et est difficile à interpréter. L'analyse de 250 kilomètres de profils sismiques THR sur le littoral languedocien (Nord du Golfe du Lion, France), de carottages et de données de terrain a permis de déterminer la géométrie en trois dimensions des cortèges sédimentaires côtiers depuis le Quaternaire jusqu'à l'actuel. Ces observations montrent l'importance de la dynamique longshore sur les littoraux pauvres en apports sédimentaires directs. De plus, l'étude d'un système lagunaire sur ce littoral met en évidence les concepts de lagunes protégées et lagunes isolées ainsi que l'importance des vallées incisées dans la génèse de ces environnements. Enfin, la modélisation en laboratoire des processus d'incision de chenaux sous contrôle eustatique et climatique permet de discuter le rôle des vallées incisées en milieu côtier
At present, the forecasting of littoral evolution presents a considerable social stake. Many studies have been achieved to better understand coastal dynamics. Such dynamics are controlled by morphology, sediment supply, hydrodynamics, eustacy. . . At different time scales. At geological time scale, deposits geometry, controlled by eustacy and subsidence, is succesfully analysed where sediment supply is high. But the littoral zones present important sediment supply variability. In low sediment supply areas, the record of coastal tracts is smaller and harder to interprete. Analyses of about 250 kilometres of new VHR seismic profiles acquired along the languedocian coast (Northern Gulf of Lion, France), tens of short cores and outcrops data allowed us to determine the three-dimensional high-resolution geometry of the coastal tracts from Quaternary to present-day. This highlighted the role of alongshore dynamics in coast where direct sediment supply is low. The concepts of protected lagoon and isolated lagoon were broughted to the fore and the effect of inherited incised valley morphology was discussed. Last, a complementary study by analogue modeling of the channel incision processes controled by eustatic and climatic changes allowed to discuss the role of incised valleys in coastal areas
40

Raynal, Olivier. "Architectures de dépôts et facteurs de contrôle d'un système côtier à faibles apports sédimentaires - le littoral languedocien (Golfe du Lion, Sud de la France)." Phd thesis, Montpellier 2, 2008. http://tel.archives-ouvertes.fr/tel-00542897.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, la prévision de l'évolution d'un système littoral représente un enjeu social important. De nombreuses études sont réalisées afin de mieux connaitre la dynamique côtière et donc de comprendre les facteurs qui influencent son évolution. Cette dynamique est contrôlée par la morphologie, les apports sédimentaires, l'hydrodynamique, l'eustatisme... qui agissent à des échelles de temps différentes et avec de fortes interactions. A l'échelle géologique, l'architecture des dépôts, contrôlée par l'eustatisme et la subsidence, est parfaitement décrite dans les zones à forts apports sédimentaires. Par contre, dans les zones à faibles apports sédimentaires, l'enregistrement des cortèges côtiers est réduit et est difficile à interpréter. L'analyse de 250 kilomètres de profils sismiques THR sur le littoral languedocien (Nord du Golfe du Lion, France), de carottages et de données de terrain a permis de déterminer la géométrie en trois dimensions des cortèges sédimentaires côtiers depuis le Quaternaire jusqu'à l'actuel. Ces observations montrent l'importance de la dynamique longshore sur les littoraux pauvres en apports sédimentaires directs. De plus, l'étude d'un système lagunaire sur ce littoral met en évidence les concepts de lagunes protégées et lagunes isolées ainsi que l'importance des vallées incisées dans la génèse de ces environnements. Enfin, la modélisation en laboratoire des processus d'incision de chenaux sous contrôle eustatique et climatique permet de discuter le rôle des vallées incisées en milieu côtier.
41

Jean, Xavier. "Maîtrise de la couche hyperviseur sur les architectures multi-coeurs COTS dans un contexte avionique." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse à la maîtrise de processeurs multi-cœurs COTS dans le but de les rendre utilisables dans des équipements avioniques, qui ont des exigences temps réelles dures. L’objectif est de permettre l'application de méthodes connues d’évaluation de pire temps d’exécution (WCET) sur un ensemble de tâches représentatif d’applications avioniques. Au cours de leur exécution, les tâches exécutées sur différents cœurs vont accéder simultanément à des ressources matérielles qui sont partagées entre les cœurs, en particulier la mémoire principale. Cela pourra entraîner des mises en attente de certains accès que l'on qualifie d'interférences. Ces interférences peuvent avoir un impact élevé sur le temps d'exécution du logiciel embarqué. Sur un processeur COTS, qui est acheté dans le commerce et vise un marché plus large que l'avionque, cet impact n'est pas borné. Nous cherchons à garantir l'absence d'interférences grâce à des moyens logiciels, dans la mesure où les processeurs COTS ne proposent pas de mécanismes adéquats au niveau matériel. Nous cherchons à étendre des concepts de logiciel déterministe de telle sorte à les rendre compatibles avec un objectif de réutilisation de logiciel existant. A cet effet, nous introduisons la notion de logiciel de contrôle, qui est un élément fonctionnellement neutre, répliqué sur tous les cœurs, et qui contrôle les dates des accès des cœurs aux ressources communes de telle sorte à offrir une isolation temporelle entre ces accès. Nous étudions dans cette thèse le problème de faisabilité d'un logiciel de contrôle sur un processeur COTS, et de son efficacité vis à vis d'applications avioniques
We focus in this thesis on issues related to COTS multi-core processors mastering, especially regarding hard real-time constraints, in order to enable their usage in future avionics equipment. We aim at applying existing Worst Case Execution Time (WCET) evaluation methods on a set of tasks similar to those we can find in avionics software. At runtime, tasks executed among different cores are likely to access hardware resources at the same time, e.g. the main memory. It may lead to additional delays due to hardware contention, called “interferences”. Interferences slow down embedded software within ranges that may be important. Additionnally, no bound has been established for their impact on WCET when using COTS processors, that target larger markets than avionics. We try to provide guarantees that all interferences are eliminated through software, as COTS processors do not provide adequate mechanisms at hardware level. We extend deterministic software concepts that have been developed in the state of the art, in order to make them compliant with the use of legacy software. We introduce the concept of "control software", which is functionnaly neutral, is replicated among all cores, and performs active control of core's accesses to shared resources, so that concurrent accesses are temporally isolated. We formalize and study in this thesis the problem of control software feasibility on COTS processors, and questions of efficiency with regard to legacy avionics software
42

Mestrallet, Fabien. "Architectures intégrées pour la gestion et la fiabilisation du stockage électrochimique à grande échelle." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00917065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation de systèmes de stockage de l'énergie électrique tels que les batteries nécessite l'assemblage de plusieurs cellules. Comme chacune de ces dernières peut avoir des caractéristiques légèrement différentes ainsi que des conditions d'environnement thermique ou de vieillissement distinctes, l'utilisation d'un système d'équilibrage permettant une bonne gestion de la répartition de l'énergie au sein des éléments qui composent le pack est nécessaire. Les travaux de recherche présentés se rapportent à l'étude et à la conception d'un tel circuit d'équilibrage à base de convertisseurs d'énergie intégrables ainsi qu'aux sollicitations électriques engendrées dans les cellules lors de son utilisation.
43

Frausto, Bernal Paul Axayacatl. "ICARE-S2 : Infrastructure de confiance sur des architectures de réseaux pour les services de signature évoluée." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000924.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, de plus en plus d'ordinateurs sont interconnectés à l'Internet ou à des réseaux locaux. Il est donc indispensable de partager et de protéger l'information de façon performante. Pour accélérer et favoriser le développement de nouvelles applications et services autour des transactions électroniques, la sécurité devient une priorité. L'infrastructure de gestion de clés (IGC) est une réponse conçue pour assurer la sécurité des transactions électroniques et permettre l'échange de renseignements sensibles entre des parties qui n'ont pas établi au préalable de liens. La signature électronique est un service de base des IGC qui permet l'authentification, la confidentialité, l'intégrité et la non-répudiation de la transaction électronique. Elle devient une composante fondamentale des transactions sécurisées. Elle pourra bientôt se substituer légalement à la signature écrite. Dans ce contexte, notre objectif est de contribuer au développement et à la création de nouveaux e-services nécessaires à la croissance des transactions électroniques: la certification de rôles associés à la signature (pour connaître les privilèges du signataire aux moyens de la définition d'un rôle), l'habilitation et la délégation de signature (pour que quelqu'un puisse donner l'autorisation à quelqu'un d'autre d'exercer un pouvoir à sa place et donner l'autorisation de transférer ce pouvoir à un tiers), la signature électronique contrôlée (pour indiquer qui peut signer un document et contrôler la séquence et les priorités des signatures) et enfin les métadonnées de droits d'accès (pour définir les droits d'accès à un document indépendamment du système d'exploitation utilisé). Une infrastructure de confiance est nécessaire pour prendre en compte ces e-services. Nous proposons l'infrastructure ICARE-S2 (Infrastructure de Confiance sur des Architectures de RésEaux pour les Services de Signature évoluée ) basée sur les principes associés à l'infrastructure de gestion de privilèges et l'infrastructure de gestion de clés, un certificat d'attribut encodé en XML supporté par cette architecture, ainsi que la spécification de ces différents e-services utilisant ce type de certificat. Concrètement, l'infrastructure ICARE-S2 propose un système couvrant les principales fonctions de sécurité nécessaires à un processus transactionnel. De l'authentification et la gestion des droits des utilisateurs et des composants, en passant par le chiffrement des informations, et la gestion de l'intégrité des messages par le biais de certificats électroniques. Une partie de ces travaux a été financée par le projet RNRT ICARE.
44

Périn, Mathieu. "Etude des architectures de systèmes et de circuits radiofréquences pour les récepteurs à faible courant de consommation dans le domaine de l'automobile." Caen, 2011. http://www.theses.fr/2011CAEN2036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
LES TRAVAUX DE CETTE THÈSE PORTENT SUR L’ÉTUDE DES ARCHITECTURES DE SYSTÈMES ET DE CIRCUITS DES RÉCEPTEURS RADIOFRÉQUENCES À FAIBLE COURANT DE CONSOMMATION POUR DES APPLICATIONS AUTOMOBILES CIBLÉES, FONCTIONNANT DANS LES BANDES ISM INFÉRIEURES AU GIGAHERTZ. CES RÉCEPTEURS DOIVENT ÊTRE MULTISTANDARDS (ETSI, FCC, ARIB…) ET MULTICANAUX. LE COURANT DE CONSOMMATION DU RÉCEPTEUR, À L’EXCEPTION DE LA PARTIE NUMÉRIQUE, NE DOIT PAS EXCÉDER 10 mA, SOIT 40 % DE RÉDUCTION PAR RAPPORT À LA MOYENNE DE L’ÉTAT DE L’ART INDUSTRIEL PROPOSÉ EN DÉBUT DE CE TRAVAIL. EN SE BASANT SUR UN ÉTAT DE L’ART DES RÉCEPTEURS RF ET LA THÉORIE ASSOCIÉE A LEUR DIMENSIONNEMENT EN FONCTION DES SPÉCIFICATIONS ET DES PERFORMANCES VOULUES, DEUX STRATÉGIES DE RÉDUCTION DU COURANT DE CONSOMMATION SONT CONSIDÉRÉES. LA PREMIERE EMPLOIE UNE ARCHITECTURE HÉTÉRODYNE A RÉJECTION D’IMAGE, BASÉE SUR UNE STRUCTURE DE WEAVER À FILTRE POLYPHASE, OÙ LE COURANT DES BLOCS CRITIQUES EST OPTIMISÉ EN FONCTION DU CONTRÔLE DE GAIN PLACÉ EN TÊTE DU RÉCEPTEUR. LA SECONDE UTILISE UNE ARCHITECTURE A SOUS-ÉCHANTILLONNAGE QUI PERMET DE RÉDUIRE LE COURANT CONSOMMÉ PAR LE SYNTHÉTISEUR DE FRÉQUENCE. DANS LES DEUX CAS, DES FRONTAUX RF, COMPOSÉS D’ATTÉNUATEURS ET D’AMPLIFICATEURS FAIBLE BRUIT A GAIN PROGRAMMABLE NUMÉRIQUEMENT, SONT CONÇUS DANS DEUX TECHNOLOGIES DIFFÉRENTES DE NXP (BICMOS 0,25 μm AVEC UNE FRÉQUENCE DE TRANSITION DE 40 GHz ET CMOS 0,14 μm RF)
THIS THESIS DEALS WITH THE STUDY OF SYSTEM ARCHITECTURES AND LOW CURRENT CONSUMPTION RF RECEIVER CIRCUITS FOR TARGETED AUTOMOTIVE APPLICATIONS, WORKING IN SUB-GIGAHERTZ ISM BANDS. THOSE RECEIVERS HAVE TO BE MULTI-STANDARD (ETSI, FCC, ARIB…) AND MULTI-CHANNEL. THE RECEIVER CURRENT CONSUMPTION, EXCEPT THE DIGITAL PART, MUST NOT EXCEED 10 mA, LEADING TO A 40 % REDUCTION IN COMPARISON TO THE PROPOSED INDUSTRIAL BENCHMARK, DONE AT THE BEGINNING OF THIS WORK. BASED ON RF RECEIVER STATE OF THE ART AND THEORY ASSOCIATED TO THEIR DIMENSIONING IN FUNCTION OF SPECIFICATIONS AND WANTED PERFORMANCES, TWO STRATEGIES OF CURRENT CONSUMPTION REDUCTION ARE CONSIDERED. THE FIRST ONE EMPLOYS A HETERODYNE ARCHITECTURE WITH IMAGE REJECTION, BASED ON WEAVER’S STRUCTURE WITH POLYPHASE FILTER, WHERE THE CURRENT CONSUMPTION OF THE CRITICAL BLOCKS IS OPTIMIZED IN FUNCTION OF THE RECEIVER FRONT-END GAIN CONTROL. THE SECOND ONE USES A SUB-SAMPLING ARCHITECTURE, WHERE THE CURRENT CONSUMED BY THE FREQUENCY SYNTHESIZER CAN BE REDUCED. IN BOTH CASES, RF FRONT-ENDS, COMPOSED OF DIGITALLY PROGRAMMABLE VARIABLE GAIN ATTENUATORS AND LOW NOISE AMPLIFIERS, ARE IMPLEMENTED IN TWO DIFFERENT NXP SILICON PROCESSES (40 GHz TRANSITION FREQUENCY 0. 25 μm BICMOS AND 0. 14 μm RF CMOS)
45

Estournes, Guilhem. "Architectures et facteurs de contrôle des bassins quaternaires immergés du précontinent armoricain : exemples de la paléovallée d'Étel (Bretagne Sud) et du bassin des Ecrehou (Golfe normand Breton)." Lorient, 2011. http://www.theses.fr/2011LORIS240.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La pénurie de granulats à terre (en particulier d’origine alluvionnaire) en région Bretagne conduit les industriels à prospecter dans de nouvelles zones de gisements potentiels. Le plateau continental interne (0-60 m) correspond pour partie à l’extension des topographies continentales, remaniées par les variations eustatiques, climatiques et tectoniques au cours du Quaternaire (2. 6 Ma-Actuel). L’objectif de cette thèse est de caractériser la morphologie et l’enregistrement sédimentaire de ces bassins en discriminant l’influence des variations eustatiques, climatiques et tectoniques quaternaires dans la mise en place de ces objets. Deux zones représentatives de contextes géologiques différents au niveau du Massif Armoricain, ont fait l’objet d’une étude détaillée par stratigraphie sismique haute résolution, reconstitution 3D des topographies et des remplissages et carottages superficiels. Ces deux zones correspondent à 1) la paléovallée de la rivière d’Etel (Bretagne Sud), et 2) les bassins quaternaires du Golfe Normand-Breton (Normandie Occidentale). Il s’agit d’un travail d’exploration dans ces zones peu connues, présentant des intérêts tant académiques (connaissance des marges continentales) qu’industriels (exploration de nouveaux gisements potentiels). Cette étude montre que la façade Atlantique correspond à des topographies fluviatiles reliques (Pléistocène moyen) plusieurs fois utilisées depuis leur mise en place mais présentant une très faible capacité de préservation. La paléo Etel apparaît uniquement comblée par des dépôts transgressifs holocènes tidaux à marins (9 ka à l’Actuel). La mise en place de ces vallées semble contrôlée par la dynamique climatique quaternaire (Transition du Pléistocène Moyen) et les variations eustatiques haute fréquence de cette période. Dans le Golfe Normand-Breton, le remplissage des bassins témoigne d’une préservation bien meilleure (Pléistocène inférieur au Pléistocène supérieur) en relation avec un contexte tectonique plus actif que sur la marge atlantique. Ce remplissage apparaît en outre dominé par les environnements tidaux. De manière très générale, à l’échelle du Massif Armoricain, le contexte tectonique régional parait moduler l’influence des variations eustatiques dans la préservation des sédiments. Cette dernière est dans tout les cas maximale au cours des transgression et nulle, voire négative pendant les bas niveaux eustatiques
The shortage of local aggragate ores (more particularily from alluvial origines) leads industrial companies to prospect for new potential ores including marine areas. The inner continental shelf (0-60 m) corresponds to the offshore extension of continental landscapes, reworked by eustatic, climatic and tectonic variations during the Quaternary (2. 6 Myrs-Today). The objective of this thesis is to characterize both the morphology and sedimentary filling of these basins, making the part of eustatic, climatic and tectonic influences on sediments onset. Two areas, chosen because of their good geological context representativeness, have been studied by seismic reflexion, surfacial coring and 3D topographic and sedimlentary reconstitutions. These two areas are 1) the Palaeo Valley of the Etel River (Southern Brittany) and 2) the Ecrehou Basin in the Normand-Breton Gulf. This study consists in an exploration of poorly known areas, carrying interests for both academic research (continental margins knowledge) and industrial sector (new potential material ores). It appaears that Atlantic inner shelf morphology corresponds to the remnant of fluvial topographies (Mid Pleistocene) several times reused since their onset and showing a poor sediments preservation capacity. The Etel Palaeo valley is only filled with transgressive tidal to marine deposits dated between 9 Kyrs BP to present. The onset of these valleys seems to respond to the evolution of quaternary climate dynamic (Mid Pleistocene Transition) and high frenquency eustatic variations since this period. In the Normand-Breton Gulf, the basin sedimentary filling presents a far better preservation capacity (preserving Early and Late Pleistocene deposits) associated to more active tectonic pattern than the Atlantique margin. This filling is dominated by tidal environnements. Basically, at the scale of the whole Armorican Massif, the tectonic forcing seems to modulate the effect of eustatic variations on sediment preservation. This latter is in any case maximum during transgressions and minimum or negative during sea lowstand periodes
46

Hariri, Alaa-Aldin Al. "Architectures numériques configurables pour le traitement rapide sur FPGA de codes correcteurs d’erreurs de la famille QC-LDPC." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0354.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connectivité sans fils est devenue essentielle dans un nombre sans cesse croissant de systèmes dans quasiment tous les domaines d'activité, tant professionnels que privés. Les applications et appareils concernés, très variés, doivent faire usage de protocoles toujours plus nombreux et diversifiés. Ceci induit en permanence de nouvelles contraintes et exigences auxquelles il n'est possible de faire face que par un effort permanent d'innovation dans les domaines des techniques transmission, des architectures matérielles/logicielles et des méthodologies de conception. Il s'agit notamment d'accroître encore les débits, l'autonomie et l'intégration, tout en maîtrisant, voire réduisant, les coûts de ces systèmes. Le transfert fiable à haut débit de données via des canaux de transmission sans fils bruités, donc non fiable, nécessite l'emploi d'un codage canal réalisé le plus souvent à l'aide de techniques de codage correcteur d'erreur. Parmi ces dernières, très nombreuses, les codes LDPC constituent l'une des famille les plus efficaces concernant la capacité à approcher de très près la limite de Shannon, ce qui les rends très attractifs dans de nombreux domaines et normes (ex: dans DVB-S2 en télévision numérique, IEEE~802.11n [WiFi] et IEEE~802.16e [WiMAX] en transmission sans fils mobile).Ce travail de thèse propose de nouvelles architectures rapides et facilement configurables pour le codage et le décodage d'une famille de codes LDPC, les codes QC-LDPC. Les architectures proposées pour les codeurs et décodeurs ciblent une réalisation sur FPGA. Elles offrent des vitesses de traitement qui peuvent être très élevées grâce à des structures matérielles fortement parallèles. Les paramètres configurables concernent les caractéristiques du code ciblé et le degré de traitement parallèle souhaité. Les architectures proposées ont été validées sur plusieurs codes QC-LDPC. À chaque fois, différents degrés de traitement parallèle ont été sélectionnées, permettant de varier le compromis entre performances (vitesse de traitement, donc débit) et coût (surface matérielle requise). Malgré les contraintes induites par le choix de la configurabilité, des débits relativement élevés peuvent être atteint avec des niveau de parallélisme raisonnables. En limitant le niveau de parallélisme, il est possible de fortement restreindre les coûts matériels sans trop limiter les débits atteints
Wireless connectivity has turned essential in a growing number of systems in nearly all the domains of activity, either professional or personal. The concerned applications and devices, very varied, must make use of ever increasing and changing protocols. This constantly incurs new constraints and requirements that can only be faced with permanent innovation effort in the fields of transmission techniques, hardware/software architectures and design methodologies. The reliable transmission of data at high data rates over noisy and hence unreliable channels, requires channel coding to be used most of the time employing error correcting codes. Of these, LDPC codes are among the most effective concerning their ability to achieve near Shannon limit performance. This makes them very attractive in many areas and standars (eg. DVB-S2 in digital television, IEEE 802.11n [WiFi] and IEEE 802.16e [WiMAX] in wireless networks). The work in this thesis proposes a new architectures that is fast and easily configurable for the coding and decoding of codes from the QC-LDPC sub-family of LDPC codes. The proposed encoder and decoder architectures target implementation on FPGA. These architectures provide processing speeds that can be very high thanks to highly parallel hardware structures. Configurable parameters relate to the target code characteristics and the desired degree of parallel processing. The proposed architectures have been validated for many QC-LDPC codes. Each time, different levels of parallel processing were selected to vary the trade-off between performance (processing speed, id. flow) and cost (hardware area requirements). Despite the constraints inherent to the choice of configurability, rather high flow rates can be achieved with reasonable level of parallelism. By limiting the level of parallelism, it is possible to greatly restrict the hardware costs without yet too much limiting the achieved throughputs
47

Guillot, Pierre. "Contribution à l'étude des architectures de radiocommunications à références d'horloges hautes fréquences : application des résonateurs BAW à la génération de fréquence de référence dans les systèmes de communication mobile." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00674583.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thèse portent principalement sur la génération de signal d'horloge haute fréquence. Dans un premier temps, la faisabilité d'un oscillateur à base de BAW y est démontrée par la conception d'un circuit en technologie CMOS 65 nm. Les deux principales innovations sont les performances en terme de stabilité (bruit de phase de -128dBc/Hz à 100kHz de la porteuse) et en précision (implémentation d'une banque de capacités ayant un pas de 0.4ppm) de l'oscillateur. Sa consommation est optimisée (0.9mW). Il est suivi d'un diviseur faible bruit (-140dBc/Hz à 100kHz de la porteuse) délivrant un signal à 500MHz. Dans un second temps, les imperfections des résonateurs BAW sont analysées. Une procédure de calibration comprenant une calibration initiale et une calibration en boucle ouverte est alors proposée. Cette dernière repose sur l'identification et l'utilisation d'un modèle comportemental du dispositif, régulièrement mis à jour grâce à un filtre de Kalman. Une précision de 0.4 ppm est atteinte
48

Guillot, Pierre. "Contribution à l’étude des architectures de radiocommunications à références d’horloges hautes fréquences : application des résonateurs BAW à la génération de fréquence de référence dans les systèmes de communication mobile." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thèse portent principalement sur la génération de signal d'horloge haute fréquence. Dans un premier temps, la faisabilité d'un oscillateur à base de BAW y est démontrée par la conception d'un circuit en technologie CMOS 65 nm. Les deux principales innovations sont les performances en terme de stabilité (bruit de phase de -128dBc/Hz à 100kHz de la porteuse) et en précision (implémentation d'une banque de capacités ayant un pas de 0.4ppm) de l'oscillateur. Sa consommation est optimisée (0.9mW). Il est suivi d'un diviseur faible bruit (-140dBc/Hz à 100kHz de la porteuse) délivrant un signal à 500MHz. Dans un second temps, les imperfections des résonateurs BAW sont analysées. Une procédure de calibration comprenant une calibration initiale et une calibration en boucle ouverte est alors proposée. Cette dernière repose sur l'identification et l'utilisation d'un modèle comportemental du dispositif, régulièrement mis à jour grâce à un filtre de Kalman. Une précision de 0.4 ppm est atteinte
This thesis deals with the gigahertz range reference frequency generation. In a first part, this document presents the design of a 500 MHz oscillator in a 65 nm CMOS process using a 2 GHz Bulk Acoustic Wave resonator. A digital frequency control is implemented using a switched capacitor bank in parallel to the resonator. The tuning range is up to 500 kHz with a minimum step of 200 Hz. The oscillator core uses a differential topology and is designed for low phase noise (-128 dBc/Hz at 100 kHz offset) at low power consumption (0.9 mW). It is followed by a low noise divider which provides a 500 MHz output with a phase noise of -139 dBc/Hz at 100 kHz offset from the carrier. In a second part, we consider a method for the calibration of a BAW based frequency reference. In fact, the frequency variations of a BAW oscillator against process, supply, temperature and aging effects make difficult its use as a frequency reference. We propose here a method based on Kalman filtering to identify with high precision a behavioral model of this BAW reference, thus enabling its use in an open loop frequency tuning. A precision of 0.4 ppm is achieved
49

Rizzo, Audrey. "L'approche CRONE dans le domaine des architectures complexes des suspensions de véhicules automobiles : la suspension CRONE Hydractive." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14564/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans la continuité des travaux de l'équipe CRONE appliqués à la suspension. Cette thèse permet de proposer une suspension CRONE qui non seulement gère le compromis Isolation vibratoire/ tenue de caisse mais également isolation vibratoire/ tenue de roue. Pour cela un critère est développé sur la tenue de roue, applicable à tous types de suspensions permettant l’analyse et le dimensionnement de la suspension pour le contrôle de roue. De plus afin de lever le dilemme entre sollicitations route et sollicitation conducteur, une stratégie pour les suspensions bi -états est proposée et appliquée sur suspension hydractive. Enfin , un travail de formalisme de l’ influence la suspension sur la dynamique véhicule fut réalisé permettant d ’enrichir la stratégie de commutation déjà développée pour agir en virage et en freinage et ainsi optimiser l’utilisation de la suspension
This thesis follows some previous work of the CRONE team applied to carsuspensions. It allows to purpose one car suspension, called CRONE car suspension, whichimproves the compromise between low frequency road filtering and car holding and thecompromise between hight frequency road filtering and wheel holding. To hold the wheel acriterium on the wheel holding is developed. This criterium can be used to analyse and tunedall kind of car suspension around the wheel pulsation. Moreover, to fight against thecompromise between the driver input and the raod input, a control laws is developed andapplied to a bi-state car suspension called hydractive car suspension. Finally, the influence ofthe car suspension tuning on the vehicle dynamic and more precisely on the ESP, ABSsystems is studied and illustrated with some first experiments
50

Bringer, Yves. "Performances de nouvelles architectures machines pour la mise en oeuvre d'algorithmes de traitement et d'analyse d'image." Saint-Etienne, 1993. http://www.theses.fr/1993STET4024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une carte électronique a été réalisée à l'Institut de chimie et physique industrielles de Lyon utilisant quatre processeurs à architecture à flot de données et programmable liant ainsi puissance et souplesse d'utilisation. Pour valider cette architecture pour le traitement et l'analyse d'image, l'approche a été double : - mise en oeuvre d'algorithme à la fois coûteux et originaux scientifiquement : algorithme de Danielson, suppression de flou, reconstruction 3D. - implantation sur site industriel avec prise en compte des contraintes de temps et intégration dans une chaine complète de contrôle

To the bibliography