Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Systèmes à base de composants concurrents.

Dissertationen zum Thema „Systèmes à base de composants concurrents“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Systèmes à base de composants concurrents" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Farhat, Salman. „Safe Dynamic Reconfiguration of Applications with Features“. Electronic Thesis or Diss., Université de Lille (2022-....), 2024. http://www.theses.fr/2024ULILB014.

Der volle Inhalt der Quelle
Annotation:
Les applications déployées sur des environnement de type Cloud ou sur des systèmes cyber-physiques nécessitent une reconfiguration fréquente pendant leur exécution pour s'adapter à l'évolution des besoins et des exigences, ce qui souligne l'importance des capacités de reconfiguration dynamique. En outre, ces environnements peuvent étendre et modifier leurs services en cours d'exécution, ce qui nécessite une approche compositionnelle pour permettre la modification des configurations. Pour gérer la variabilité de l'architecture des grands systèmes, les modèles de caractéristiques sont largement utilisés au moment de la conception, avec plusieurs opérateurs définis pour permettre leur composition. Les approches existantes calculent de nouvelles configurations valides soit au moment de la conception, soit au moment de l'exécution, soit les deux, ce qui entraîne d'importants temps de calcul ou de validation pour chaque étape de reconfiguration. En outre, la construction de modèles formels corrects par construction pour gérer les reconfigurations d'applications est une tâche complexe et sujette aux erreurs, et il est nécessaire de l'automatiser autant que possible.Pour relever ces défis, nous proposons une approche appelée FeCo4Reco qui s'appuie sur les modèles de caractéristiques pour générer automatiquement, dans un formalisme basé sur les composants appelé JavaBIP, des modèles de variabilité d'exécution basés sur les composants qui respectent les contraintes du modèle de caractéristiques. Ces modèles de variabilité d'exécution basés sur les composants sont exécutables et peuvent être utilisés à l'exécution pour appliquer les contraintes de variabilité, c'est-à-dire pour garantir la validité (partielle) de toutes les configurations atteignables.Comme les architectures des systèmes complexes peuvent évoluer à l'exécution en acquérant de nouvelles fonctionnalités tout en respectant de nouvelles contraintes, nous définissons des opérateurs de composition pour les modèles de variabilité à l'exécution basés sur des composants qui, non seulement encodent ces opérateurs de composition de modèles de caractéristiques, mais garantissent également une reconfiguration sûre à l'exécution. Pour prouver les propriétés de correction et de composition, nous proposons une nouvelle équivalence UP-bisimulation en plusieurs étapes et l'utilisons pour montrer que les modèles de variabilité d'exécution basés sur les composants préservent la sémantique des modèles de fonctionnalités composés.Pour l'évaluation expérimentale, nous avons démontré l'applicabilité de notre approche dans des scénarios réels en générant un modèle d'exécution basé sur le modèle de caractéristiques de la plateforme cloud Heroku à l'aide de notre approche. Ce modèle est ensuite utilisé pour déployer une application web réelle sur la plateforme Heroku. En outre, nous avons mesuré les surcharges de temps et de mémoire induites par les modèles d'exécution générés sur des systèmes impliquant jusqu'à 300 fonctionnalités. Les résultats montrent que les surcharges sont négligeables, ce qui démontre l'intérêt pratique de notre approche
Cloud applications and cyber-physical systems require frequent reconfiguration at run-time to adapt to changing needs and requirements, highlighting the importance of dynamic reconfiguration capabilities. Additionally, the environment platforms can extend and modify their services at run-time, which necessitates a compositional approach to allow the modifications of the configurations. To manage the variability of large systems' architecture, feature models are widely used at design-time with several operators defined to allow their composition. Existing approaches compute new valid configurations either at design time, at runtime, or both, leading to significant computational or validation overheads for each reconfiguration step. In addition, building correct-by-construction formal models to handle application reconfigurations is a complex and error-prone task, and there is a need to make it automated as far as possible.To address these challenges, we propose an approach named FeCo4Reco that leverages feature models to automatically generate, in a component-based formalism called JavaBIP, component-based run-time variability models that respect the feature model constraints. These component-based run-time variability models are executable and can be used at runtime to enforce the variability constraints, that is, to ensure the (partial) validity of all reachable configurations.As complex systems' architectures may evolve at run-time by acquiring new functionalities while respecting new constraints, we define composition operators for component-based run-time variability models that not only encode these feature model composition operators, but also ensure safe run-time reconfiguration. To prove the correctness and compositionality properties, we propose a novel multi-step UP-bisimulation equivalence and use it to show that the component-based run-time variability models preserve the semantics of the composed feature models.For the experimental evaluation, we demonstrated the applicability of our approach in real-world scenarios by generating a run-time model based on the feature model of the Heroku cloud platform using our approach. This model is then used to deploy a real-world web application on the Heroku platform. Furthermore, we measured the time and memory overheads induced by the generated run-time models on systems involving up to 300 features. The results show that the overheads are negligible, demonstrating the practical interest of our approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Nguyen, Thanh-Hung. „Vérification Constructive des Systèmes à base de Composants“. Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM020.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse est de développer des méthodologies et des outils pour la vérification compositionnelle et incrémentale des systèmes à base de composants. Nous proposons une méthode compositionnelle pour vérifier des propriétés de sûreté. La méthode est basée sur l'utilisation des deux types d'invariants: invariants de composant qui expriment des aspects locaux des systèmes et invariants d'interaction qui caractérisent les contraintes globales induites par les synchronisations entre les composants. Nous offrons des méthodes efficaces pour calculer ces invariants. Nous proposons également une nouvelle technique qui prend la conception incrémentale du système en compte. L'intégration de la vérification dans le processus de conception permet de déceler une erreur dès qu'elle apparaît. En outre, cette technique permet d'éviter de refaire toutes les processus de vérification par la réutilisation de résultats intermédiaires. Il prend des avantages des strutures de systèmes pour faire face à la complexité de la vérification globale et, par conséquent, réduit sensiblement le coût de la vérification en temps et en mémoire utilisée. Les méthodes ont été mises en oevre dans la chaîne d'outil D-Finder. Les résultats expérimentaux obtenus sur des exemples non triviaux et études de cas montrent l'efficacité de notre méthode ainsi que les capacités de D-Finder
The goal of the thesis is to develop theory, methods and tools for the compositional and incremental verification for component-based systems. We propose a compositional verification method for proving safety properties. The method is based on the use of two kinds of invariants: component invariants which express local aspects of systems and interaction invariants which characterize global constraints induced by synchronizations between components. We provide efficient methods for computing these invariants. We also propose a new technique that takes the incremental design of the system into account. The integration of verification into design process allows to detect an error as soon as it appears. Moreover, the technique helps to avoid redoing all the verification process by reusing intermediate verification results. It takes advantage of the system structure for coping with complexity of the global verification and therefore, reduces significantly the cost of verification in both time and memory usage. The methods have been implemented in D-Finder tool-set. The experimental results obtained on non trivial examples and case studies show the efficiency of our methods as well as the capacity of D-Finder
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nguyen, Thanh-Hung. „Vérification Constructive des Systèmes à base de Composants“. Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00485933.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse est de développer des méthodologies et des outils pour la vérification compositionnelle et incrémentale des systèmes à base de composants. Nous proposons une méthode compositionnelle pour vérifier des propriétés de sûreté. La méthode est basée sur l'utilisation des deux types d'invariants: invariants de composant qui expriment des aspects locaux des systèmes et invariants d'interaction qui caractérisent les contraintes globales induites par les synchronisations fortes entre les composants. Nous offrons des techniques efficaces pour calculer ces invariants. Nous proposons également une nouvelle méthode de vérification incrémentale qui prend la conception incrémentale du système en compte. L'intégration de la vérification dans le processus de conception permet de déceler une erreur dès qu'elle apparaît. En outre, cette méthode permet d'éviter de refaire tous les processus de vérification par la réutilisation de résultats intermédiaires. Elle prend des avantages des structures de systèmes pour faire face à la complexité de la vérification globale et, par conséquent, réduit significativement le coût de la vérification en temps et en mémoire utilisée. Les méthodes compositionnelles et incrémentales ont été mises en oeuvre dans la chaîne d'outil D-Finder. Les résultats expérimentaux obtenus sur plusieurs études de cas non triviales montrent l'efficacité de nos méthodes ainsi que les capacités de D-Finder.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ben, Hafaiedh Imane. „Systèmes à base de composants : du design à l'implémentation“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00573291.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous sommes intéressés aux design, vérification et implémentation des systèmes à base de composants. Nous proposons d'abord une méthodologie de design et de vérification compositionelle et incrémentale à base de contrats pour les systèmes de composants. Nous proposons ensuite une implémentation distribuée qui permet de préserver certaines properiétés globales de ces systèmes. La méthodologie de design proposée utilise les contrats comme un moyen de contraindre, raffiner et d'implémenter les systèmes. Elle est basée sur un formalisme de contracts générique, que nous instancions pour un formalisme de composants permettant la description des propriétés de progrés. Nous étendons cette méthodologie pour raisonner sur des systèmes de taille arbitraire et nous prouvons son utilité pour vérifier des propriétés de sûreté et de progrés d'un réseau de noeuds distribués. Dans le contexte des systèmes distribués, les systèmes doivent être implémenter de manière distribuée. Nous proposons dans cette thèse un protocole qui permet l'exécution distribuée des systèmes tout en préservant certaines propriétés globales à savoir des synchronisations et des priorités et où les composants interagissent par échange de messages. Nous proposons également une implémentation du protocole pour une plateforme particulière.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Al, Masri Nada. „Modèle d'Administration des Systèmes Distribués à Base de Composants“. Phd thesis, INSA de Lyon, 2005. http://tel.archives-ouvertes.fr/tel-00474407.

Der volle Inhalt der Quelle
Annotation:
Component-Oriented Systems are increasingly evolving and being adopted by both industrial and academic worlds. They have resulted from the advances achieved in both software engineering and distributed systems. Component models such as JavaBeans, COM, CORBA were presented as reusable components that can be composed together to get a complete software. At the same time, advances in distributed systems lead to another type of component models such as EJB, DCOM and CCM that treat the distribution as their main objective. Platforms conforming to these models support a number of middleware services that facilitates the distribution without explicit intervention from the system developers. These platforms can be seen as dedicated hosting servers of the applications' components. In our works, we concentrate on the EJB component model; we present an administration platform for a federation of servers cooperating to host a number of applications. The federation includes different servers with different configurations, characteristics, services and resources. Our main objective is to manage the deployment of EJB components in the federation depending on their needs to the available resources and services offered by the servers. The proposed administration platform is based on the JMX instrumentation platform. We propose a 3-level instrumentation model to collect management information from 3 environment levels: network and system low level, application server level, and components level. The administration platform gets all necessary information about the execution environment from this instrumentation platform modeled in 3 levels where all the elements are also modeled as managed objects. Furthermore, the administration platform defines a number of services to control the deployment management in the federation such as a migration service, EJB evaluation service, and EJB instrumentation service. Beside these services, we define a number of rules to consider while taking decision concerning the deployment process and the communication between the application servers. To apply a non-centralized management over the nodes of the federation, we propose deploying the administration services on all servers in the federation to get a distributed management.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Youssef, Lilia. „Construction de systèmes répartis sécurisés à base de composants“. Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00721746.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est de fournir des modèles et outils pour simplifier la construction des systèmes distribués à base de composants sécurisés, ainsi que la gestion des propriétés de sécurité, en utilisant des outils de haut niveau d'abstraction pour la configuration et la reconfiguration dynamique. En plus des propriétés d'accessibilité et de communications sécurisées classiques, nous focalisons notre travail sur une propriété des systèmes répartis plus générale : la non-interférence. Cette propriété atteste qu'il ne doit pas y avoir de flux d'information entre des parties publiques et privées du système. Ce qui implique le suivi de l'acheminement de l'information entre les différentes composantes du système distribué. Notre objectif principal est donc de proposer un modèle, accompagné d'un ensemble d'outils, garantissant la propriété de la non-interférence à la construction du système, et ce à une plus grosse granularité : celle des composants. Ces outils permettent de (1) configurer les paramètres de sécurité des composants et des liaisons entre eux, (2) vérifier la propriété de non-interférence dans le code d'un composant et entre les différents composants du système et (3) générer automatiquement le code nécessaire pour appliquer ces propriétés de sécurité. D'autre part, nous proposons une architecture permettant de vérifier dynamiquement la propriété de non-interférence dans un système réparti.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Hamouche, Rédha. „Modélisation des systèmes embarqués à base de composants et d'aspects“. Evry-Val d'Essonne, 2004. http://www.theses.fr/2004EVRY0015.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de la définition d'une approche de modélisation qui permet de faire face à la complexité des systèmes embarqués, réduire leur temps de conception et couvrir différents domaines d'applications (Modèles de Traitement). Cette approche, appelée ModelJ, est basée sur le paradigme de composant et le paradigme d'aspect. Elle explore le potentiel de ces nouveaux paradigmes logiciels, apparus récemment, dans le cadre de la modélisation des systèmes embarqués. L'approche propose d'une part, un métamodèle indépendant de tout langage de modélisation, qui permet de fournir des modèles abstraits , réutilisables et modulaires contribuant à faciliter la modélisation des systèmes embarqués, et d'autre part de proposer un framework qui met en oeuvre le métamodèle et qui fournit un environnement logiciel pour la définition de modèles et la validation de ceux-ci par simulation
This thesis work address embedded systems design. It proposes a modelling approach that faces the complexity of theses systems, reduces their design time and covers their different and multiple application domains (Models of Computation). This approach, called ModelJ, is based on two main paradigms recently appeared in software engineeriing : the component and the aspect paradigms. The component paradigm addresses the system complexity and improves reusability where as the aspect paradigm deals with the flexibility and adaptability of system descriptions. The proposed approach defines a metamodel and a framework. The metamodel provides a set of reusable and modular abstract models for describing the embedded system in a language-independent way. The framework is the software environment that implements the defined metamodel and allows to model, develop and simulate the system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Skiba, Karima. „Modélisation de systèmes intégrés à base de composants électroniques virtuels“. Grenoble INPG, 2002. http://www.theses.fr/2002INPG0088.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'est interessée à un paradigme récent à savoir la conception collaborative, autour de l'intranet, des systèmes intégrés fondée sur l'utilisation d'IPs. Elle s'est intéressée en particulier à la gestion de données de conception d'IPs et de leur transfert autour de l'intranet. Il s'agit donc de proposer des méthodologies et des outils permettant de décrire, de modéliser, de valider, et d'échanger des fichiers de conception et de validation à différents niveaux d'abstraction. La première difficulté liée à l'utilisation des IPs est leur qualification. Une partie de cette thèse a été consacrée à une étude de systhèse sur les stratégies et les outils de validation. Le deuxième problème de la conception collaborative concerne la modélisation et l'échange des fichiers de conception et de validation d'IPs. La partie clé de cette thèse aborde ce sujet. Dans un premier temps une méthodologie de description de données descriptives d'IPs a été mise en place dans une description dite "description catalogue". Ensuite, une technique de modélisation d'IPS à partie de son flot de conception dite "profilage d'IPs" a été définie pour décrire et stocker ses fichiers de conception. Une modélisation hiérarchique de systèmes intégrés à base d'IPs est présentée. Elle assure une gestion de l'échange des données de conception d'IPs fondée sur représentation des répertoires des fichiers par une DTD (document type) XML. Ce travail a contribué aux travaux de VCT "Virtual Component Transfer de VSIA", du projet européen "TOOLIP de MEDEA+" et a mené à une proposition de standardisation. Ces deux dermières initiatives focalisant leurs efforts à la définition et à la réalisation des normes, des méthodes et des outils d'échange d'IPs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Renaux, Emmanuel. „Définition d'une démarche de conception de systèmes à base de composants“. Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Der volle Inhalt der Quelle
Annotation:
Ce travail s'inscrit dans le domaine du génie logiciel et traite de la conception d'applications distribuées à base de composants. La plupart des industriels utilise des technologies à base de composants telles que les environnements distribués Corba ou EJB. La notion de composants améliore la qualité du logiciel, c'est une unité de code robuste et éprouvée. Or, la conception d'applications grâce à des démarches de type Processus Unifié, ne garantit pas l'identification et donc la réutilisation de composants préfabriqués. En fait, l'identification, la réutilisation et la conception de composants ne sont pas correctement prises en compte par les concepts introduits par la notation UML. Enfin, le portage des modèles UML vers les plate-formes technologiques n'est pas direct et demande de nombreux choix de conception, ce qui rend la tâche complexe et coûteuse. L'objectif de la thèse est de fournir aux concepteurs un cadre méthodologique, ainsi qu'un environnement complet pour la conception d'applications à base de composants et la génération de code vers des technologies spécifiques permettant le développement d'applications dans des environnements distribués. Nous proposons un formalisme de modélisation à base de composants articulé autour de quatre vues correspondant à quatre préoccupations de l'ingénierie logicielle
La vue de cas d'utilisation permet de décrire les besoins des utilisateurs finaux et les dépendances entre composants au niveau fonctionnel. La vue d'interactions des éléments du système donne une représentation plus fine des dépendances entre composants par échange de message et permet de définir les interfaces. La vue de conception de composants décrit la structure des composants. La vue d'assemblage des composants logiques décrit le modèle du système. Chaque vue est décrite par une partie du méta-modèle définissant les concepts mis en jeu et leurs relations. Ce méta-modèle garantit la cohérence entre les vues et les activités sous-jacentes. Ce formalisme, ainsi que la démarche améliorent le portage des composants modélisés vers des composants de plate-formes technologiques spécifiques. Cependant, la projection vers ces plate-formes reste difficile. Elle peut être assistée par le biais de projections vers des modèles intermédiaires. La thèse présente l'implantation d'une chaîne globale de conception de composants qui s'appuie principalement sur l'atelier ouvert Eclipse utilisé aussi bien dans l'industrie que dans le monde académique. L'implantation d'un modèle intermédiaire par un framework enrichissant le modèle EJB, montre que cette démarche augmente la productivité de systèmes à base de composants. Ils sont mieux conçus et les possibilités de courtage et de réutilisation de composants préfabriqués sont accrues. Enfin, l'étude d'un mécanisme d'extensibilité de notre modèle offre des perspectives d'adaptation de notre travail à d'autres paradigmes et d'autres démarches qui devraient permettre une exploitation plus large de notre travail
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Navas, Juan F. „Une infrastructure pour l'optimisation de systèmes embarqués évolutifs à base de composants logiciels“. Brest, 2011. http://www.theses.fr/2011BRES2013.

Der volle Inhalt der Quelle
Annotation:
Concernant la partie logicielle des systèmes embarqués, on constate le besoin d’un modèle de la structuration du logiciel qui facilite le processus de développement, la capacité de faire évoluer le comportement du système lors de son exécution, afin de s’adapter aux changements de son environnement, et la prise en compte des limitations des ressources physiques des plates-formes d’exécution. L’utilisation de composants logiciels est une approche de conception qui, via l'abstraction des détails techniques, facilite la gestion de la complexité du logiciel. La question que nous nous posons est : comment les composants doivent être développés de façon à satisfaire les exigences liées aux fortes contraintes physiques et au besoin d’évolution du logiciel ? Pour y répondre, nous introduisons a notion de réification de composant. Une réification est une collection de données et de comportements qui encapsulent des aspects du composant à un moment précis de son cycle de vie. Nous proposons ensuite des techniques d’optimisation pour la génération du code « glue » qui assure l’interopérabilité des composants, afin de satisfaire les contraintes liées aux ressources limitées. Elles rendent possible la définition de niveaux d’optimisation pour chaque instance des entités du modèle à composants, ce qui nous permet de régler la performance du logiciel en fonction de ses besoins (extra) fonctionnels. Ensuite, nous définissons quatre profils d’évolution en fonction des caractéristiques d’évolution de chaque entité du modèle, et nous mettons en place des infrastructures d’évolution adaptées aux besoins d’évolution du système, couplées avec les exigences de performance du logiciel
Regarding embedded systems software which is open to change, we find (i) the need for a model of the structuring of software that facilitates the development process, (ii) the ability to make evolve the system behavior at execution-time, to adapt to changes in its environment, and (iii) the accounting of the physical resources limitations in execution platforms. The use of software components is a design approach which, though the abstraction of technical details, cases software complexity management. It meets the first requirement and is the basis of our proposals. Based on this approach, we intend to answer the following question: how components should be developed to satisfy the requirements that derive from strong physical constraints and the need of software evolution? To answer this question, we first introduce the notion of component reification. A reification is a collection of data and behaviors that encapsulate aspects of the component at a specific point of its life-cycle. Based in this concept, we then propose optimization techniques for the generation of the glue code that ensures the interoperability of components, in order to satisfy the physical constraints due to limited resources. These techniques make possible the definition of optimization levels for each instance of the component model entities, which allows us to adjust the performance of the software to its (extra)functional needs. Then, we define four categories of evolution based on evolution my characteristics of each entity of the model, and we deploy an evolution infrastructure tailored to the systems evolution needs, coupled with the softwares performance requirements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Prada, Rojas Carlos Hernan. „Une approche à base de composants logiciels pour l'observation de systèmes embarqués“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00621143.

Der volle Inhalt der Quelle
Annotation:
À l'heure actuelle, les dispositifs embarqués regroupent une grande variété d'applications, ayant des fonctionnalités complexes et demandant une puissance de calcul de plus en plus importante. Ils évoluent actuellement de systèmes multiprocesseur sur puce vers des architectures many-core et posent de nouveaux défis au développement de logiciel embarqué. En effet, Il a classiquement été guidé par les performances et donc par les besoins spécifiques des plates-formes. Or, cette approche s'avère trop couteuse avec les nouvelles architectures matérielles et leurs évolutions rapprochées. Actuellement, il n'y a pas un consensus sur les environnements à utiliser pour programmer les nouvelles architectures embarquées. Afin de permettre une programmation plus rapide du logiciel embarqué, la chaîne de développement a besoin d'outils pour la mise au point des applications. Cette mise au point s'appuie sur des techniques d'observation, qui consistent à recueillir des informations sur le comportement du système embarqué pendant l'exécution. Les techniques d'observation actuelles ne supportent qu'un nombre limité de processeurs et sont fortement dépendantes des caractéristiques matérielles. Dans cette thèse, nous proposons EMBera~: une approche à base de composants pour l'observation de systèmes multiprocesseurs sur puce. EMBera vise la généricité, la portabilité, l'observation d'un grand nombre d'éléments, ainsi que le contrôle de l'intrusion. La généricité est obtenue par l'encapsulation de fonctionnalités spécifiques et l'exportation d'interfaces génériques d'observation. La portabilité est possible grâce à des composants qui, d'une part, ciblent des traitements communs aux MPSoCs, et d'autre part, permettent d'être adaptés aux spécificités des plates-formes. Le passage à l'échelle est réussi en permettant une observation partielle d'un système en se concentrant uniquement sur les éléments d'intérêt~: les modules applicatifs, les composants matériels ou les différents niveaux de la pile logicielle. Le contrôle de l'intrusion est facilité par la possibilité de configurer le type et le niveau de détail des mécanismes de collecte de données. L'approche est validée par le biais de différentes études de cas qui utilisent plusieurs configurations matérielles et logicielles. Nous montrons que cette approche offre une vraie valeur ajoutée dans le support du développement de logiciels embarqués.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Basu, Ananda Shankar. „Modélisation à base de composants de systèmes temps réel hétérogènes en BIP“. Grenoble 1, 2008. http://www.theses.fr/2008GRE10249.

Der volle Inhalt der Quelle
Annotation:
Nous présentons BIP, le formalisme orienté composant pour la construction par composants de systèmes temps-réel hétérogènes. BIP signifie en anglais : behavior, interaction and priority, ce qui se traduit par comportement, interaction et priorité. Ce sont les trois briques de base de ce formalisme. Il considère que les systèmes peuvent être obtenus par composition de composants organisés en trois niveaux ou le plus bas représente le comportement comme un ensemble de transitions étiquetées par des actions et des déclencheurs ; le niveau intermédiaire représente l’ensemble des interactions entre transitions du comportement et le niveau supérieur contient un ensemble de priorités dynamiques. BIP a une rigoureuse sémantique formelle et supporte une méthodologie de construction de systèmes basés sur un opérateur de composition de composants qui est paramétrable. L'utilisation d'un opérateur de composition par couche permets la construction incrémentale de systèmes. Le processus de construction peut être vu comme une séquence de transformations dans un espace à trois dimensions (Comportement X Interaction X Priorité) et fournit la base pour l'étude de la préservation de propriétés lors de transformations entre sous-ensembles de systèmes comme le passage d'un système temporisé à un autre non temporisé. Nous fournissons aussi une sémantique distribuée pour les systèmes avec BIP, en utilisant un modèle d'état partiel et nous avons montré que l'utilisation d'un prédicat auxiliaire appelé oracle permets la préservation de l'équivalence observationnel par rapport à la sémantique centralisé. Nous présentons une implémentation de BIP comme une chaine d'outils qui permettent la modélisation, l'analyse statique et l'exécution de descriptions BIP sur une plateforme dédiée. Trois implémentations de la plateforme d'exécution sont fournies : une version centralisée et énumérative, une version centralisée et symbolique et une version distribuée. Nous illustrons l'utilisation de ses outils à l'aide de deux domaines d'applications majeurs : composition de logiciels et modélisation de systèmes imbriquant le matériel et le logiciel
We present the BIP component framework for component-based construction of real-time systems from heterogeneous components. BIP stands for Behavior, Interaction and Priority, the three main elements for building components. It considers that systems can be obtained by composition of 3-layered components, where the lowest layer represents behavior as a set of transitions with triggers and actions; the intermediate level is the set of the interactions between the transitions of the behavior level, and the upper level is a set of dynamic priority rules. BIP has a rigorous formal semantics, and supports a system construction methodology based on a parameterized composition operator on components. The use of a layered composition operator allows incremental construction. The system construction process can be viewed as a sequence of transformations in a three-dimensional space of Behavior X Interaction X Priority, and provides a basis for the study of property preserving transformations between subclasses of systems such as untimed/timed, asynchronous/synchronous. We also provide a distributed semantics for systems in BIP, using a partial state model, and show the use of an auxiliary predicate called Oracle to preserve observational equivalence with respect to the centralized semantics. We present an implementation of BIP as a tool chain that allows modeling, static analysis and execution of BIP descriptions on a dedicated engine. Three different implementations for the engine have been provided, a centralized enumerative engine, a centralized symbolic engine and a distributed engine. We illustrate the use of the tool chain for two major application domains, Software Componentization, and Modeling mixed hw/sw systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Navas, Juan. „Une infrastructure pour l'optimisation de systèmes embarqués évolutifs à base de composants logiciels“. Phd thesis, Université de Bretagne occidentale - Brest, 2011. http://tel.archives-ouvertes.fr/tel-00624826.

Der volle Inhalt der Quelle
Annotation:
Concernant la partie logicielle des systèmes embarqués, on constate le besoin d'un modèle de la structuration du logiciel qui facilite le processus de développement, la capacité de faire évoluer le comportement du système lors de son exécution, afin de s'adapter aux changements de son environnement, et la prise en compte des limitations des ressources physiques des plates-formes d'exécution. L'utilisation de composants logiciels est une approche de conception qui, via l'abstraction des détails techniques, facilite la gestion de la complexité du logiciel. La question que nous nous posons est: comment les composants doivent être développés de façon à satisfaire les exigences liées aux fortes contraintes physiques et au besoin d'évolution du logiciel ? Pour y répondre, nous introduisons a notion de réification de composant. Une réification est une collection de données et de comportements qui encapsulent des aspects du composant à un moment précis de son cycle de vie. Nous proposons ensuite des techniques d'optimisation pour la génération du code "glue" qui assure l'interopérabilité des composants, afin de satisfaire les contraintes liées aux ressources limitées. Elles rendent possible la définition de niveaux d'optimisation pour chaque instance des entités du modèle à composants, ce qui nous permet de régler la performance du logiciel en fonction de ses besoins (extra) fonctionnels. Ensuite, nous définissons quatre profils d'évolution en fonction des caractéristiques d'évolution de chaque entité du modèle, et nous mettons en place des infrastructures d'évolution adaptées aux besoins d'évolution du système, couplées avec les exigences de performance du logiciel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Couturier, Vincent. „L'ingénierie des systèmes d'information coopératifs par réutilisation : une approche à base de patterns“. Lyon 3, 2004. https://scd-resnum.univ-lyon3.fr/out/theses/2004_out_couturier_v.pdf.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail de recherche est de faciliter l'ingénierie des systèmes d'information coopératifs (SIC) par la spécification de patterns logiciels réutilisables. Les patterns que nous proposons sont tout d'abord des patterns de domaine, réutilisables lors des phases d'analyse et de conception du processus d'ingénierie des SIC. S'ajoutent à ces patterns des patterns de support technique génériques constituant des structures réutilisables dédiées à l'implantation des entités spécifiées dans les patterns de conception de coopération et décrivant comment construire une application. En outre, des patterns de support d'utilisation guident le concepteur lors de la réutilisation des différents patterns proposés. Enfin, nous proposons une démarche générale de développement des SIC, par réutilisation de patterns ; cette démarche couvre l'ensemble des phases du processus d'ingénierie (analyse, conception, implantation), permet d'accélérer et de faciliter ce développement
Our research work aims at facilitating the engineering of Cooperative Information Systems (CIS) by specifying reusable software patterns. Our patterns are firstly domain patterns that are reusable during analysis and design stages of the process of CIS engineering. Technical support patterns form reusable structures dedicated to the implementation of objects specified in our cooperation design patterns and describe how to build an application. Moreover, utilization support patterns form guidelines helping designers to reuse former patterns. Finally, we propose a general process for developing CIS by reuse of patterns. This process covers all the development stages (analysis, design and implementation) and contributes to the rapid development of CIS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Özcan, Ali Erdem. „Conception et implantation d’un environnement de développement de logiciels à base de composants, applications aux systèmes multiprocesseurs sur puce“. Grenoble INPG, 2007. http://www.theses.fr/2007INPG0080.

Der volle Inhalt der Quelle
Annotation:
Ces travaux de thèse définissent un environnement de développement ouvert et extensible pour la conception de logiciels à base de composants. L'environnement se présente comme une chaîne de compilation d'architectures logicielles, acceptant des architectures écrites dans des langages différents et fournissant des fonctionnalités comme la génération de code ou le déploiement. L'extensibilité de l'outil est assurée par une architecture à base de composants implantant des patrons de programmation extensibles et supportant un mécanisme de plug-in pour intégrer des extensions de tierces parties. L'utilisation de l'outil est illustrée au travers deux cadres applicatifs ayant pour trame les systèmes sur puces. La première illustre le développement de systèmes d'exploitation pour ceux-ci. La deuxième illustre la définition d'un nouveau langage facilitant l'expression de la synchronisation au sein d'applications de traitement de flux multimédia réparties
Our work aims at the definition of an open and extensible development environment for supporting the design and implementation of component based software. Our proposition takes the form of a component based software architecture compilation toolset, accepting architectures described in different languages, and providing different functionalities such as code generation and deployment. The extensibility of the toolset is achieved thanks to a fine-grained component-based architecture, implementing a set of extensible programming patterns, and to a plug-in support for loading third party extensions. Two evaluation use-cases set up in the context of system-on-chips are presented in order to illustrate the effectiveness of our approach. The first use-case presents the development of operating system kernels. The second one describes the extension of the toolset with a synchronization pattern description language for easing the development of distributed streaming applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Kanso, Bilal. „Modélisation et validation des systèmes à base d'états“. Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00659305.

Der volle Inhalt der Quelle
Annotation:
La thèse s'inscrit dans le domaine de la modélisation et de la validation des systèmes modernes complexes. Les systèmes actuels sont en fait d'une complexité sans cesse croissante et formés de plus en plus de composants de natures différentes. Ceci rend leur processus de conception et de validation coûteux et difficile. Il semble être la simple façon permettant de faire face à cette hétérogénéité et à cette complexité est l'approche orientée composant. Suivant cette approche, le système est une entité formée par un ensemble des composants interconnectés. Les composants définissent une interface qui permet d'abstraire leur modèle interne (boîte noire), ce qui favorise la modularité et la réutilisation des composants. L'interaction entre ces composants se fait conformément à un ensemble des règles pré-établies, permettant ainsi d'avoir une vision globale de comportement du système. La conception ainsi que la validation des systèmes modernes reste alors problématique à cause de la nécessité de prendre en compte l'hétérogénéité des différents composants. Dans ce cadre, dans un premier temps, nous définirons un cadre formel générique dans lequel une large famille de formalismes de description de systèmes à base d'états peut être naturellement capturée. Ainsi, nous allons définir un ensemble de règles de composition permettant de mettre en correspondance les différents composants et ainsi de constituer un modèle global du système à concevoir. Dans un second temps, nous proposerons une approche de test d'intégration qui permet de valider le comportement d'un système complexe sous l'hypothèse que chaque composant est testé et validé. Cette approche vise à générer automatiquement des cas de test en s'appuyant sur un modèle global décrit dans notre framework du système sous test.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Messaadia, Karima. „Un méta modèle pour la réutilisation de composants dans les systèmes à base de connaissances“. Nantes, 2002. http://www.theses.fr/2002NANT2097.

Der volle Inhalt der Quelle
Annotation:
Notre étude de la modélisation des Systèmes à Base de Connaissances (SBC) d'un point de vue réutilisation nous a amené à décrire un méta modèle appelé le méta modèle en Y (MY). Le méta modèle en Y permet de décrire un SBC au "niveau connaissances" selon trois axes : l'objet de la réutilisation, les niveaux de description et le processus de réutilisation. Selon le premier axe, trois composants sont utilisés pour décrire un SBC qui sont : la tâche décrivant le problème à résoudre, le PSM (Problem Solving Method) décrivant une méthode de résolution de problème et le domaine décrivant les connaissances spécifiques à un domaine. Afin de garder les spécifications de ces trois composants indépendantes les unes des autres dans un souci de réutilisation, nous avons externalisé les interactions pouvant exister entre eux en utilisant la notion de lien inter-composants et de lien intra-composant. . .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Jayaprakash, Nagapraveen. „Infrastructure à base de règles actives pour la décision dans des systèmes autonomes à composants“. Grenoble INPG, 2008. http://www.theses.fr/2008INPG0050.

Der volle Inhalt der Quelle
Annotation:
Les systèmes autonomiques possèdent la capacité d'effectuer automatiquement des opérations lors d'occurrences de faits significatifs sans intervention humaine. Pour fournir cette capacité, nous proposons d'utiliser un mécanisme à base de règles actives, ou règle Evénement-Condition-Action (ECA). De nombreuses questions se posent sur leurs exécutions. Nous proposons un modèle d'exécution adapté aux systèmes à composants. Une deuxième contribution est la proposition d'une infrastructure autonomique dans laquelle les règles ainsi que leur sémantiques sont représentées par des composan qui permet: i) de personnaliser la construction des systèmes à base de règles, et ii) de modifier dynamiquement les règles et leurs sémantiques de la m manière que le système cible. Ces éléments forment la base d'une bibliothèque extensible de composants pour la construction des mécanismes réactifs
The ability to (re)act automatically to perform corrective actions in response to the occurrence of situations of interest (events) is a key feature of autonc computing. Ln active database systems, it is incorporated by Event-Condition-Action (or active) rules. We propose a rule model, composed of a rule defir model and a rule execution mode!. We propose equally an architecture for the integration of rules into component-based systems in which they as weil. Their semantics (execution model, behaviour) are represented as components, which permits i) to construct personalized rule-based systems and ii) to dynamically modify them and their semantics in the same manner as the underlying system. These foundations form the basis of an extensible framewoi which is a library of components to construct the various active mechanisms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Peschanski, Frédéric. „Composition et adaptation dynamiques de systèmes distribués : une approche à base de composants asynchrones typés“. Paris 6, 2002. http://www.theses.fr/2002PA066293.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Bénazéra, Emmanuel. „Diagnostic et reconfiguration basés sur des modèles hybrides concurrents : application aux satellites autonomes“. Toulouse 3, 2003. http://www.theses.fr/2003TOU30105.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Stoicescu, Miruna. „Conception et implémentation de systèmes résilients par une approche à composants“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2013. http://tel.archives-ouvertes.fr/tel-01018621.

Der volle Inhalt der Quelle
Annotation:
L'évolution des systèmes pendant leur vie opérationnelle est incontournable. Les systèmes sûrs de fonctionnement doivent évoluer pour s'adapter à des changements comme la confrontation à de nouveaux types de fautes ou la perte de ressources. L'ajout de cette dimension évolutive à la fiabilité conduit à la notion de résilience informatique. Parmi les différents aspects de la résilience, nous nous concentrons sur l'adaptativité. La sûreté de fonctionnement informatique est basée sur plusieurs moyens, dont la tolérance aux fautes à l'exécution, où l'on attache des mécanismes spécifiques (Fault Tolerance Mechanisms, FTMs) à l'application. A ce titre, l'adaptation des FTMs à l'exécution s'avère un défi pour développer des systèmes résilients. Dans la plupart des travaux de recherche existants, l'adaptation des FTMs à l'exécution est réalisée de manière préprogrammée ou se limite à faire varier quelques paramètres. Tous les FTMs envisageables doivent être connus dès le design du système et déployés et attachés à l'application dès le début. Pourtant, les changements ont des origines variées et, donc, vouloir équiper un système pour le pire scénario est impossible. Selon les observations pendant la vie opérationnelle, de nouveaux FTMs peuvent être développés hors-ligne, mais intégrés pendant l'exécution. On dénote cette capacité comme adaptation agile, par opposition à l'adaptation préprogrammée. Dans cette thèse, nous présentons une approche pour développer des systèmes sûrs de fonctionnement flexibles dont les FTMs peuvent s'adapter à l'exécution de manière agile par des modifications à grain fin pour minimiser l'impact sur l'architecture initiale. D'abord, nous proposons une classification d'un ensemble de FTMs existants basée sur des critères comme le modèle de faute, les caractéristiques de l'application et les ressources nécessaires. Ensuite, nous analysons ces FTMs et extrayons un schéma d'exécution générique identifiant leurs parties communes et leurs points de variabilité. Après, nous démontrons les bénéfices apportés par les outils et les concepts issus du domaine du génie logiciel, comme les intergiciels réflexifs à base de composants, pour développer une librairie de FTMs adaptatifs à grain fin. Nous évaluons l'agilité de l'approche et illustrons son utilité à travers deux exemples d'intégration : premièrement, dans un processus de développement dirigé par le design pour les systèmes ubiquitaires et, deuxièmement, dans un environnement pour le développement d'applications pour des réseaux de capteurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Charaf, Eddin Mohammad. „Contribution to dynamic reconfiguration in component-based systems : consistency and non-functional properties specification“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30045/document.

Der volle Inhalt der Quelle
Annotation:
Le travail réalisé dans le cadre de cette thèse a deux objectifs principaux. Le premier est de contribuer `à la spécification de la reconfiguration dynamique des systèmes à base de composants. Le deuxième objectif est de s´sélectionner la configuration optimale parmi un ensemble de configurations qui fournissent des fonctionnalités identiques ou similaires. Le processus de sélection dépend des propriétés non-fonctionnelles du système. La propriété de reconfigurabilité est essentielle pour de nombreux systèmes à base de composants contemporains. En effet, cette propriété améliore la disponibilité, l'adaptabilité, l'évolutivité, la maintenabilité et la performance des systèmes tels que les systèmes avioniques, les commutateurs de télécommunications et les systèmes commerciaux. Pour ces systèmes, l'arrêt de longue durée n'est pas admissible pour des raisons s´sécuritaires ou économiques. L'adaptabilité et l'evolvabilité sont également des caractéristiques importantes pour ces systèmes qui ont besoin d'inclure des changements de l'environnement ou des nouvelles exigences des utilisateurs dans le logiciel. Toutes ces motivations plus montrent l'importance de permettre, dès la conception, la reconfiguration dynamique de systèmes. La reconfiguration est la capacité de modifier la structure ou le comportement d'un système à l'exécution et sans l'arrêter complétement. Le travail présenté dans cette thèse étudie les mécanismes et les techniques pour fournir la reconfigurabilité aux systèmes à base de composants. La fourniture de reconfigurabilité nécessite la prise en considération de la cohérence du système pendant et après la reconfiguration. Il y a deux sortes de cohérence : cohérence globale et cohérence locale. Dans cette thèse, nous proposons une approche pour préserver la cohérence globale d'un système à base de composants reconfigurable en utilisant un langage formel déclaratif, Alloy. Une autre approche est proposée pour préserver la cohérence locale en analysant la relation entre la dépendance indirecte et la reconfiguration dynamique. Enfin, la sélection de configuration consiste à choisir la configuration la plus optimale à partir d'un ensemble de choix dans le but de maximiser la satisfaction de l'utilisateur. Une approche proposée pour faire le meilleur choix en fonction des préférences de l'utilisateur exprimées sur des métriques non-fonctionnelles
The research of this thesis has two main goals. The first goal is to provide the reconfigurability feature to the component-based systems. The second goal is to select the optimal configuration from a set of configurations, which provide similar functionality. The selection process depends on the non-functional properties of the system. Reconfigurability is essential feature for many contemporary component-based systems. Reconfigurability enhances the continuous availability, the adaptability, the evolvability, the maintainability, and the performance. Avionics systems, telecommunications switches and some commercial systems require the high availability. For these systems, long shutting down is not allowable due to economical or safety reasons. The adaptability and the evolvability are also important features for those systems which need to accommodate the environmental changes or the new requirements of software users. The maintainability and the performance are important requirements for a large category of systems. All the previous motivations and more show the importance of having the reconfigurability. Reconfigurability is the ability to change the system structure or the system behavior at running time without stopping it. The work presented in this thesis investigates the required mechanisms and techniques in order to provide the reconfigurability feature to a component-based system. The provision of the reconfigurability feature requires preserving the system consistency during and after the reconfiguration. The consistency has two kinds: global consistency and local consistency. In this thesis, we propose an approach to preserve the global consistency of a reconfigurable component-based system using declarative formal language. Another approach is proposed to preserve the local consistency during the reconfiguration. The second approach investigates the relationship between the indirect dependency and the dynamic reconfiguration. Configuration selection is to select the most optimal configuration from a set of alternatives in order to maximize the end user satisfaction. The thesis proposes an approach to make the best selection depending on the user preferences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Bigot, Céline. „Une proposition de formalisme orienté composant : application de méthodes d'exécution symbolique pour la validation de systèmes à base de composants“. Paris, CNAM, 2005. http://www.theses.fr/2005CNAM0497.

Der volle Inhalt der Quelle
Annotation:
De plus en plus, les logiciels sont considérés comme des assemblages de composants, chaque composant étant lui-même considéré comme un logiciel indépendant. Ce type d'approche permet de simplifier les étapes de conception, de développement et de maintenance des logiciels tout en garantissant de manière plus aisée leur qualité, leur fiabilité et leur sûreté. Dans ce contexte, nous proposons un cadre formel pour la définition de composants et de systèmes de composants avec une syntaxe orientée UML et une sémantique opérationnelle puis dénotationnelle. La sémantique opérationnelle nous permet de simuler automatiquement un système à peu de frais grâce à l'outil AGATHA, en vue de générer des tests. La sémantique opérationnelle nous permet, quant à elle, la définition d'un formalisme de spécifications de composants et de systèmes de composants ainsi que de divers mécanismes tel que l'exécution symbolique, que nous redéfinissons et que nous prouvons correct pour notre formalisme
More and more, software are considered as assembly of components, each component is also being considered as an independent software. This kind of approach aims at simplify software conception, development and maintenance steps while guaranteeing in an easier way their quality, reliability and safety. In this context, we propose a formal framework for component and components system definitions with a UML-oriented syntax and an operational and denotational semantics. The operational semantics allows us to automatically simulate a system easily thanks to the AGATHA tool, for generate tests. The denotational semantics allows the definition of a component and components system specification formalism as some mechanisms like symbolic execution, that we redefine and prove correct for our formalism
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Al, Shara Zakarea. „Migration des applications orientées-objet vers celles à base de composants“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT254/document.

Der volle Inhalt der Quelle
Annotation:
Les applications orientées objet de tailles significatives ont des dépendances complexes et nombreuses, et généralement ne disposent pas d'architectures logicielles explicites. Par conséquent, elles sont difficiles à maintenir, et certaines parties de ces applications sont difficiles à réutiliser. Le paradigme de développement à base de composants est né pour améliorer ces aspects et pour soutenir la maintenabilité et la réutilisation efficaces. Il offre une meilleure compréhensibilité à travers une vue d'architecture de haut niveau. Ainsi, la migration des applications orientées objet à celles à base de composants contribuera à améliorer ces caractéristiques, et de soutenir l'évolution des logiciels et la future maintenance.Dans cette thèse, nous proposons une approche pour transformer automatiquement les applications orientées objet à celles à base de composants. Plus particulièrement, l'entrée de l'approche est le résultat fourni par la récupération de l'architecture logicielle: une description de l'architecture à base de composants. Ainsi, notre approche transforme le code source orienté objet afin de produire des composants déployables. Nous nous concentrons sur la transformation des dépendances orientées objet en celles basées sur les interfaces. De plus, nous passons du concept d'objet au concept d'instance d'un composant. En outre, nous fournissons une approche de transformation déclarative en utilisant des langages dédiés. Nous démontrons notre approche sur de nombreux modèles de composants bien connus
Large object-oriented applications have complex and numerousdependencies, and usually do not have explicitsoftware architectures. Therefore they are hard to maintain, and parts of themare difficult to reuse. Component-based development paradigm emergedfor improving these aspects and for supporting effectivemaintainability and reuse. It provides better understandabilitythrough a high-level architecture view of the application. Thus, migrating object-oriented applications to component-based ones will contribute to improve these characteristics, and support software evolution and future maintenance.In this dissertation, we propose an approach to automatically transform object-oriented applications tocomponent-based ones. More particularly, the input of the approach isthe result provided by software architecture recovery: acomponent-based architecture description. Then, our approachtransforms the object-oriented source code in order to producedeployable components. We focus on transforming object-oriented dependencies into interface-based ones. Moreover, we move from the concept of object to the concept of component instance. Furthermore, we provide a declarative transformation approach using domain-specific languages. We demonstrate our approach on many well-known component models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Grondin, Guillaume. „MaDcAr-Agent : un modèle d'agents auto-adaptables à base de composants“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00775866.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de l'informatique ubiquiste, l'environnement d'exécution d'une application est constitué de machines hétérogènes en ressources matérielles et appartenant à des utilisateurs différents (PC, PDA, téléphone mobile, etc.). Ces caractéristiques imposent de structurer l'application en une organisation d'unités logicielles relativement indépendantes qui coopèrent et interagissent. Dans cette thèse, nous proposons MaDcAr- Agent, un modèle d'agents auto-adaptables à base de composants et muni d'une infrastructure dédiée à l'adaptation. Ce modèle se caractérise par la présence d'un niveau méta qui comporte notamment un moteur d'assemblage en charge des adaptations dynamiques et automatiques en fonction du contexte de l'agent. Le fonctionnement du niveau méta est guidé par la spécification de deux politiques : la politique d'assemblage qui permet à l'agent de s'adapter aux changements de contexte en fonction des composants disponibles et la politique de gestion de contenu qui permet à l'agent d'avoir les composants dont il a le plus besoin grâce aux interactions avec les autres agents. A travers ces spécifications explicites et découplées du comportement applicatif de l'agent, le concepteur d'agents peut prendre en charge la perturbation d'un système dû à des changements imprévus et répétés, sans pour autant nuire à l'autonomie des agents qui composent ce système. Pour valider notre approche, diverses expérimentations ont été menées avec ce modèle, notamment dans le cadre d'un scénario impliquant des robots mobiles qui doivent explorer une zone inconnue.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Ben, Salah Ramzi. „Sur l'analyse temporisée de systèmes de grande taille“. Grenoble INPG, 2007. http://www.theses.fr/2007INPG0107.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de la vérification et la modélisation algorithmique des système temps réels dures. Ce travail présente deux principales contributions. La première est une observation qui a permis la mise en place d'un algorithme de calcule d'atteignabilité. Ce dernier est beaucoup plus performant que celui implémenté actuellement dans la plupart des outils de vérification des systèmes temporisés. La deuxième contribution, est la mise en œuvre de tout un processus de modélisation compositionnelle. Ce processus profite de la modularité de la majorité des systèmes complexes pour construire leur modèles d'une façon hiérarchique, et cela en faisant abstraction à chaque niveau de la complexité des niveaux inférieurs. Ce travaille commence par introduire une version du processus applicable dans un environnement acyclique. Par la suite, ce processus de modélisation est généralisé pour un environnement quelconque
This thesis is part of the effort made to move the algorithmic formai verification of timed systems from the proof-of-concept phase to industrial usage. It introduces two important contributions. The first is a major improvement to the symbolic reachability algorithm for timed automata. The second is a compositional divide-and-conquer methodology. The essence of the technique is in introducing an auxiliary clocks, and then projecting the zones obtained from reachability computation on these clocks. Tow versions of this technique are presented, the first dealt with the special case of acyclic environments that generate a finite number of events within a bounded time. The second technique is aimed at more general situations where the environment may produce an infinite stream of events. That makes it possible to benefit from the modularity of complex systems to built their model hierarchically
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Pontisso, Nadège. „Association cohérente de données dans les systèmes temps réel à base de composants - Application aux logiciels spatiaux“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2009. http://tel.archives-ouvertes.fr/tel-00459071.

Der volle Inhalt der Quelle
Annotation:
Les architectures distribuées des systèmes embarqués sont souvent décrites sous la forme de composants concurrents communiquant entre eux. De tels systèmes sont à la fois orientés flot de données pour leur description, et dirigés par le temps pour leur exécution. Cette thèse s'inscrit dans cette problématique et se concentre sur le contrôle de la compatibilité temporelle d'un ensemble de données interdépendantes utilisées par les composants du système. L'architecture d'un système modélisé par composants forme un graphe où plusieurs chemins peuvent relier deux composants, avec des caractéristiques temporelles hétérogènes, ce qui induit des temps de parcours disparates. Il est alors important que ces flots d'information soient assemblés de façon cohérente sur le composant destinataire, c'est-à-dire de telle manière que le composant utilise en entrée des données dépendant (directement ou indirectement) du même pas d'exécution du composant à l'origine de ces flots multiples. Dans un premier temps, ce principe d'association cohérente de données est identifié et formalisé. Une méthodologie est proposée afin de détecter, dans un graphe de composants, les configurations pouvant poser des problèmes d'association de données Dans un deuxième temps, différentes approches sont détaillées afin de gérer l'association cohérente des données dans des systèmes périodiques sans supposer de propriétés strictes sur l'ordonnancement des composants. Dans les systèmes où les composants partagent la même période et où les communications intra-périodiques sont interdites, l'association des données est gérée par un mécanisme de files permettant de rééquilibrer les temps de parcours des données sur les différents chemins. Dans le cas où les composants sont de périodes diverses, un mécanisme d'estampillage des données est utilisé afin de mémoriser les dépendances entre données. Associé à l'utilisation de files, cet estampillage permet aux composants de sélectionner, à chacune de leurs phases d'activation, des ensembles de données cohérents choisis parmi les données à leur disposition. La notion d'association cohérente est ensuite relâchée, permettant une utilisation de données approximativement cohérentes. Des files filtrantes, n'enregistrant qu'une donnée sur un certain nombre de données reçues, permettent de réduire la taille des files nécessaires. Par ailleurs, du fait de la liberté du modèle d'exécution choisi, il existe des situations où il est impossible de garantir la vivacité de l'association cohérente des données. D'autre part, une architecture particulière peut générer des contraintes de cohérence conflictuelles et aboutir à une impossibilité de gestion de la cohérence. Pour terminer, les résultats de ces travaux sont appliqués sur le logiciel applicatif d'un satellite d'observation terrestre détectant des points chauds.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Guesmi, Hela. „Des systèmes à base de composants aux implémentations cadencées par le temps : une approche correcte par conception“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM061/document.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine des systèmes temps-réel embarqués critiques, les méthodes de conception et de spécification et leurs outils associés doivent permettre le développement de systèmes au comportement temporel déterministe et, par conséquent, reproductible afin de garantir leur sûreté de fonctionnement. Pour atteindre cet objectif, on s’intéresse aux méthodologies de développement basées sur le paradigme Time-Triggered (TT). Dans ce contexte, nombre de propriétés et, en particulier, les contraintes temps-réel de-bout-en-bout, se voient satisfaites par construction. Toutefois, garantir la sûreté de fonctionnement de tels systèmes reste un défi. En général, les outils de développement existants n’assurent pas par construction le respect de l’intégralité des spécifications, celles-ci doivent, en général, être vérifiées à posteriori. Avec la complexité croissante des applications embarquées, celle de leur validation à posteriori devient, au mieux, un facteur majeur dans les coûts de développement et, au pire, tout simplement impossible. Il faut, donc, définir une méthode qui, tout en permettant le développement des systèmes corrects par constructions, structure et simplifie le processus de spécification. Les méthodologies de conception de haut niveau à base de composants, qui permettent la conception et la vérification des systèmes temps-réels critiques, présentent une solution ultime pour la structuration et la simplification du processus de spécification de tels systèmes.L’objectif de cette thèse est d'associer la méthodologie BIP (Behaviour-Interaction-Priority) qui est une approche de conception basée sur composants avec la plateforme d'exécution PharOS, qui est un système d'exploitation temps-réel déterministe orienté sûreté de fonctionnement. Le flot de conception proposé dans cette thèse est une approche transformationnelle qui permet de conserver les propriétés fonctionnelles des modèles originaux de BIP. Il est composé essentiellement de deux étapes. La première étape, paramétrée par un mapping de tâche défini par l'utilisateur, permet de transformer un modèle BIP en un modèle plus restreint qui représente une description haut niveau des implémentations basées sur des primitives de communication TT. La deuxième étape permet la génération du code pour la plateforme PharOS à partir de ce modèle restreint.Un ensemble d'outils a été développé dans cette thèse afin d'automatiser la plupart des étapes du flot de conception proposé. Ceci a permis de tester cette approche sur deux cas d'étude industriels ; un simulateur de vol et un relais de protection moyenne tension. Dans les deux applications, on vise à comparer les fonctionnalités du modèle BIP avec celles du modèle intermédiaire et du code généré. On fait varier les stratégies de mapping de tâche dans la première application, afin de tester leur impact sur le code généré. Dans la deuxième application, on étudie l'impact de la transformation sur le code généré en comparant quelques aspects de performance du code générer avec ceux d'une version de l'application qui a été développée manuellement
In hard real-time embedded systems, design and specification methods and their associated tools must allow development of temporally deterministic systems to ensure their safety. To achieve this goal, we are specifically interested in methodologies based on the Time-Triggered (TT) paradigm. This paradigm allows preserving by construction number of properties, in particular, end-to-end real-time constraints. However, ensuring correctness and safety of such systems remains a challenging task. Existing development tools do not guarantee by construction specification respect. Thus, a-posteriori verification of the application is generally a must. With the increasing complexity of embedded applications, their a-posteriori validation becomes, at best, a major factor in the development costs and, at worst, simply impossible. It is necessary, therefore, to define a method that allows the development of correct-by-construction systems while simplifying the specification process.High-level component-based design frameworks that allow design and verification of hard real-time systems are very good candidates for structuring the specification process as well as verifying the high-level model.The goal of this thesis is to couple a high-level component-based design approach based on the BIP (Behaviour-Interaction-Priority) framework with a safety-oriented real-time execution platform implementing the TT approach (the PharOS Real-Time Operating System). To this end, we propose an automatic transformation process from BIPmodels into applications for the target platform (i.e. PharOS).The process consists in a two-step semantics-preserving transformation. The first step transforms a BIP model coupled to a user-defined task mapping into a restricted one, which lends itself well to an implementation based on TT communication primitives. The second step transforms the resulting model into the TT implementation provided by the PharOS RTOS.We provide a tool-flow that automates most of the steps of the proposed approach and illustrate its use on an industrial case study for a flight Simulator application and a medium voltage protection relay application. In both applications, we compare functionalities of both original, intermediate and final model in order to confirm the correctness of the transformation. For the first application, we study the impact of the task mapping on the generated implementation. And for the second application, we study the impact of the transformation on some performance aspects compared to a manually written version
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Khalgui, Mohamed. „Validation temporelle et déploiement d'une application de contrôle industrielle à base de composants“. Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL009N/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à la validation temporelle ainsi qu'au déploiement d'applications de contrôle industriel à base de composants. La technologie des composants retenue est celle des Blocs Fonctionnels définie dans la norme industrielle IEC 61499. Un Bloc Fonctionnel est défini comme un composant réactif supportant des fonctionnalités d'une application. L'avantage de cette norme, connue dans l'industrie, est la description statique de l'application ainsi que de son support d'exécution. Une première contribution de la thèse est l'interprétation des différents concepts définis dans la norme. Nous précisons, en particulier, la dynamique du composant en vue de décrire un comportement déterministe de l'application. Pour appliquer une validation temporelle exhaustive, nous proposons un modèle de comportement d'un Bloc Fonctionnel à l'aide du formalisme des automates temporisés. D'autre part, nous fournissons une sémantique au concept de réseau de Blocs Fonctionnels pour décrire une application comme une composition de Blocs. Une deuxième contribution de la thèse est le déploiement de tels réseaux sur une architecture distribuée multi-tâches tout en respectant des propriétés sur les temps de réponse de bout en bout. Nous transformons un réseau de Blocs Fonctionnels vers un ensemble de tâches élémentaires dépendantes, appelées actions. Cette transformation permet l'exploitation de résultats d'ordonnancement pour valider la correction temporelle de l'application. Pour déployer les blocs d'une application, nous proposons une approche hybride alliant un ordonnancement statique non-préemptif et un autre ordonnancement en ligne préemptif. L'ordonnancement statique permet la construction des tâches s'exécutant sur chaque calculateur. Ces tâches sont vues comme des séquencements statiques d'actions. Elles sont alors à ordonnancer dynamiquement selon une politique préemptive reposant sur EDF (Earliest Deadline First). Grâce à cette approche, nous réduisons le nombre de commutation de contexte en regroupant les actions au sein des tâches. De plus l'ordonnancement dynamique préemptif augmente la faisabilité du système. Enfin, une dernière contribution est une extension de la deuxième. Nous proposons une approche d'allocation de réseaux de blocs fonctionnels sur un support d'exécution distribué. Cette allocation, basée sur une heuristique de Liste, se repose sur la méthode hybride pour assurer un déploiement faisable de l'application. Le problème d'allocation est de trouver pour chaque bloc fonctionnel le calculateur capable de l'exécuter tout en respectant des contraintes fonctionnelles, temporelles et de support d'exécution. Notons enfin que l'heuristique proposée se base sur une technique de retour-arrière pour augmenter l'espace de solutions
This thesis deals with the temporal validation and the deployment of component-based industrial control applications. We are interested in the Function Blocks approach, defined in the IEC 61499 standard, as a well known component based technology in the industry. A Function Block is an event triggered component owning data to support the application functionalities. The advantage of this technology is the taking into account of the application and also its execution support. The first thesis contribution deals with the interpretation of the different concepts defined in the standard. In particular, we propose a policy defining a deterministic behavior of a FB. To apply an exhaustive temporal validation of the application, we propose a behavioral model of a Block as Timed Automata. On the other hand, we propose a semantic for the concept of FBs networks to develop industrial control applications. The second thesis contribution deals with the deployment of FBs networks in a distributed multi-tasking architecture. Such deployment has to respect classical End to End Response Time Bounds as temporal constraints. To validate the temporal behavior of an application, we propose an approach transforming its blocks into an actions system with precedence constraints. The purpose is to exploit previous theories on the scheduling of real-time systems. To deploy FBs networks in feasible OS tasks, we propose a Hybrid scheduling approach combining an off-line non-preemptive scheduling and an on-line preemptive one. The off-line scheduling allows to construct OS tasks from FBs, whereas the on-line one allows to schedule these tasks according to the classical EDF policy. A constructed OS task is an actions sequence defining an execution scenario of the application. Thanks to this approach, we reduce the context switching at run-time by merging application actions in OS tasks. In addition, the system feasibility is increased by applying an on-line preemptive policy. Finally, the last thesis contribution is an extension of the previous one. We propose an approach allocating FBs networks in a distributed architecture. Based on a heuristic, such approach uses the hybrid method to construct feasible OS tasks in calculators. The allocation problem of a particular application FB is to look for a corresponding calculator while respecting functional, temporal and execution support constraints. We note that the proposed heuristic is based on a back-tracking technic to increase the solutions space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Bobeff, Gustavo. „Spécialisation de composants“. Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00484948.

Der volle Inhalt der Quelle
Annotation:
La programmation à base de composants facilite l'encapsulation de logiciel générique qui peut ainsi être réutilisé dans différents contextes d'utilisation. Un composant est spécifié à partir d'une implémentation et d'une interface. Cette interface, utilisée pour la composition, peut être adaptée par le consommateur du composant. Les modèles existants ne permettent que l'adaptation au niveau de l'interface alors que leur implémentation reste inchangée (boîte noire), les applications résultantes conservent le degré de généralité des composants constituants. Pour aller au-delà de ces modèles, nous proposons MoSCo, un modèle qui permet une forme plus profonde d'adaptation où l'implémentation est aussi modifiée. Dans ce modèle, un composant est analysé et traduit, à l'aide des techniques de spécialisation de programmes, sous la forme d'un générateur de composants. Ce générateur produit finalement un composant spécialisé selon un contexte d'utilisation en respectant la notion de boîte noire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Khalgui, Mohamed. „Validation temporelle et déploiement d'une application de contrôle industrielle à base de composants“. Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL009N.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à la validation temporelle ainsi qu'au déploiement d'applications de contrôle industriel à base de composants. La technologie des composants retenue est celle des Blocs Fonctionnels définie dans la norme industrielle IEC 61499. Un Bloc Fonctionnel est défini comme un composant réactif supportant des fonctionnalités d'une application. L'avantage de cette norme, connue dans l'industrie, est la description statique de l'application ainsi que de son support d'exécution. Une première contribution de la thèse est l'interprétation des différents concepts définis dans la norme. Nous précisons, en particulier, la dynamique du composant en vue de décrire un comportement déterministe de l'application. Pour appliquer une validation temporelle exhaustive, nous proposons un modèle de comportement d'un Bloc Fonctionnel à l'aide du formalisme des automates temporisés. D'autre part, nous fournissons une sémantique au concept de réseau de Blocs Fonctionnels pour décrire une application comme une composition de Blocs. Une deuxième contribution de la thèse est le déploiement de tels réseaux sur une architecture distribuée multi-tâches tout en respectant des propriétés sur les temps de réponse de bout en bout. Nous transformons un réseau de Blocs Fonctionnels vers un ensemble de tâches élémentaires dépendantes, appelées actions. Cette transformation permet l'exploitation de résultats d'ordonnancement pour valider la correction temporelle de l'application. Pour déployer les blocs d'une application, nous proposons une approche hybride alliant un ordonnancement statique non-préemptif et un autre ordonnancement en ligne préemptif. L'ordonnancement statique permet la construction des tâches s'exécutant sur chaque calculateur. Ces tâches sont vues comme des séquencements statiques d'actions. Elles sont alors à ordonnancer dynamiquement selon une politique préemptive reposant sur EDF (Earliest Deadline First). Grâce à cette approche, nous réduisons le nombre de commutation de contexte en regroupant les actions au sein des tâches. De plus l'ordonnancement dynamique préemptif augmente la faisabilité du système. Enfin, une dernière contribution est une extension de la deuxième. Nous proposons une approche d'allocation de réseaux de blocs fonctionnels sur un support d'exécution distribué. Cette allocation, basée sur une heuristique de Liste, se repose sur la méthode hybride pour assurer un déploiement faisable de l'application. Le problème d'allocation est de trouver pour chaque bloc fonctionnel le calculateur capable de l'exécuter tout en respectant des contraintes fonctionnelles, temporelles et de support d'exécution. Notons enfin que l'heuristique proposée se base sur une technique de retour-arrière pour augmenter l'espace de solutions
This thesis deals with the temporal validation and the deployment of component-based industrial control applications. We are interested in the Function Blocks approach, defined in the IEC 61499 standard, as a well known component based technology in the industry. A Function Block is an event triggered component owning data to support the application functionalities. The advantage of this technology is the taking into account of the application and also its execution support. The first thesis contribution deals with the interpretation of the different concepts defined in the standard. In particular, we propose a policy defining a deterministic behavior of a FB. To apply an exhaustive temporal validation of the application, we propose a behavioral model of a Block as Timed Automata. On the other hand, we propose a semantic for the concept of FBs networks to develop industrial control applications. The second thesis contribution deals with the deployment of FBs networks in a distributed multi-tasking architecture. Such deployment has to respect classical End to End Response Time Bounds as temporal constraints. To validate the temporal behavior of an application, we propose an approach transforming its blocks into an actions system with precedence constraints. The purpose is to exploit previous theories on the scheduling of real-time systems. To deploy FBs networks in feasible OS tasks, we propose a Hybrid scheduling approach combining an off-line non-preemptive scheduling and an on-line preemptive one. The off-line scheduling allows to construct OS tasks from FBs, whereas the on-line one allows to schedule these tasks according to the classical EDF policy. A constructed OS task is an actions sequence defining an execution scenario of the application. Thanks to this approach, we reduce the context switching at run-time by merging application actions in OS tasks. In addition, the system feasibility is increased by applying an on-line preemptive policy. Finally, the last thesis contribution is an extension of the previous one. We propose an approach allocating FBs networks in a distributed architecture. Based on a heuristic, such approach uses the hybrid method to construct feasible OS tasks in calculators. The allocation problem of a particular application FB is to look for a corresponding calculator while respecting functional, temporal and execution support constraints. We note that the proposed heuristic is based on a back-tracking technic to increase the solutions space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Zhang, Tiantian. „Injection de spin dans des systèmes à base de semiconducteurs III-V en vue de nouveaux composants spintroniques“. Thesis, Toulouse, INSA, 2014. http://www.theses.fr/2014ISAT0005/document.

Der volle Inhalt der Quelle
Annotation:
La spintronique dans les semiconducteurs vise à utiliser le spin de l’électron comme degré de liberté supplémentaire (en plus de la charge électrique) afin de véhiculer l’information, ce qui permettrait la mise au point de composants intégrant de nouvelles fonctionnalités. Ce travail de thèse porte sur deux étapes importantes qui doivent être maîtrisées : l’injection électrique de porteurs polarisés en spin dans les semiconducteurs III-V, et la manipulation du spin de l’électron (par champ magnétique) dans ces matériaux optimisés. Dans un premier temps, la grande efficacité des injecteurs de spin à base de CoFeB/MgO/GaAs est démontrée dans des dispositifs de type Diodes Electroluminescentes polarisées en spin (SpinLEDs). La comparaison entre des injecteurs comprenant une barrière tunnel fabriquée soit par pulvérisation cathodique, soit par épitaxie par jets moléculaires (MBE), permet de montrer que ces deux techniques donnent des résultats comparables. Dans les deux cas, l’efficacité de l’injection est améliorée par un recuit de l’échantillon autour de 300−350◦C. Le recuit induit une amélioration de la qualité de l’interface CoFeB/MgO. De plus, l’efficacité de l’injection de spin n’est stable en fonction du courant injecté que lorsque la barrière tunnel est fabriquée par pulvérisation cathodique. Ceci est dˆu aux caractéristiques de l’interface MgO/GaAs qui diffèrent selon la technique de croissance de la barrière. Dans un deuxième temps, l’injection de spin en l’absence de champ magnétique externe appliqué est réaliséegrâce à un nouveau type d’injecteur constitué d’une électrode de CoFeB ultrafine présentant une aimantation rémanente de la couche le long de l’axe de croissance de l’échantillon. Pour la première fois des taux de polarisation circulaire de l’électroluminescence de l’ordre de 20% sont mesurés à 25 K à champ magnétique nul. Ensuite, la problématique de la relaxation de spin des porteurs injectés dans les vallées L de haute énergie dans GaAs (phénomène non négligeable sous injection électrique) est également traitée. Nous observons qu’une fraction de la mémoire du spin photogénéré en L est conservée lorsque les électrons sont diffusés vers la vallée Γ, malgré une relaxation d’énergie de plusieurs centaines de meV. Le temps de relaxation de spin dans les vallées L est estimé autour de 200 fs. Enfin, nous avons exploré le matériau GaAsBi dilué (x ∼ 2.2%) dont la perturbation de la matrice par l’élément Bi permet d’attendre des propriétés électroniques et de spin fortement modifiées. Des mesures de photoluminescence ont mis en évidence une diminution de l’énergie de bande interdite de l’ordre de 85meV/%Bi. De plus, par la mesure directe des battements quantiques de la polarisation de photoluminescence nous avons déterminé un facteur de Landé des électrons de conduction de l’ordre de deux fois supérieur à celui de GaAs. Ces résultats témoignent de la forte perturbation des états de valences et de l’augmentation de l’interaction spin-orbite
Spintronics of semiconductors aims at using carrier spins as supplementary means of information transport. Thiswould lead to components showing extended functionalities. This thesis work is dedicated to the study of injectionand manipulation of electron spin in semiconductors, which are the basis of any spintronic application. In a first stepwe demonstrate the high efficiency of CoFeB/MgO/GaAs - based spin injectors. Circular polarization degrees of electroluminescence over 20% are measured on spin polarized LEDs (SpinLEDs) at 0.8 T and 25 K. Comparison betweensputtering- and MBE- grown spin injectors has shown similar results. In both case, spin injection efficiency is increasedby thermal annealing of the sample, in the range 300 − 350◦C. Indeed, annealing improves the quality of CoFeB/MgOinterface, and induces the crystallization of CoFeB above 300◦C. A higher stability of spin injection with current injectionis found when the tunnel barrier is grown by sputtering. This is due to the MgO/GaAs interface characteristicswhich is related to the growth technique. In a second step, we demonstrate spin injection without external appliedmagnetic field, through an ultra-thin (a few atomic layers) CoFeB electrode, taking advantage of the perpendicular magnetic anisotropy of the layer which leads to a remanant magnetization along the growth axis. For the first time in this configuration, circular polarization degrees of electroluminescence of about 20% are measured at 25 K at zero magnetic field. In a third step, due to the crucial role it may play in electrical injection, electron spin dynamics in high energy L-valleys is investigated. Using polarization resolved excitation photoluminescence in the range 2.8-3.4 eV, we observe that a fraction of photogenerated spin polarization is preserved when electrons are scattered hundreds of meV down to Γ valley. Spin relaxation time in L valleys is estimated to 200 fs. Finally we investigate electron and spin properties of GaAsBi dilute bismide alloy. We observe that the bandgap energy is reduced by 85meV/%Bi when Bi element is introduced into GaAs matrix. Moreover, the electron Land´e factor is about twice the one in GaAs for a 2.2% Bi composition. These features are evidence of the strong perturbation of host states and spin-orbit interaction enhancement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Tournier, Jean-Charles. „Qinna : une architecture à base de composants pour la gestion de la qualité de service dans les systèmes embarqués mobiles“. Phd thesis, INSA de Lyon, 2005. http://tel.archives-ouvertes.fr/tel-00009704.

Der volle Inhalt der Quelle
Annotation:
Les systèmes embarqués communicants sont de plus en plus présents dans notre environnement quotidien sous formes de PDA, téléphones portables, etc. Ces sytèmes se doivent d'être ouverts afin de pouvoir accueillir de nouvelles applications tout au long de leur cycle de vie. Ils possèdent alors des contraintes fortes de types qualité de service, sécurité, tolérance aux fautes, etc. La programmation à base de composants apparaît comme une solution prometteuse pour le développement de tels systèmes. Cependant, un des frein à l'adoption de ce type de programmation est que les modèles à composants n'intègrent pas les aspects de gestion de qualité de service.
Ce travail de thèse présente une architecture de gestion de qualité de service pour les systèmes embarqués mobiles à composants. Cette architecture, appelée Qinna, est définie à l'aide de composants Fractal et permet la mise en œuvre, ainsi que la gestion dynamique, de contrats de qualité de service entre les différents composants d'un système. L'originalité de l'approche proposée permet de prendre en compte la qualité de service quelque soit le niveau considéré du système (niveau applicatif, niveau services, niveau système d'exploitation et niveau ressources).
L'architecture Qinna a été validée par une évaluation qualitative à base de patrons génériques d'architecture, puis par une évaluation quantitative permettant de montrer que le coût de l'architecture reste faible.
Le travail réalisé ouvre de nombreuses perspectives de recherche notamment celle de généraliser l'approche utilisée (définition d'une architecture abstraite de composant pour la prise en charge de la gestion d'une propriété non-fonctionnelle, ici la QdS) à d'autres propriétés non-fonctionnelles (par exemple la sécurité ou la tolérance aux fautes), et d'en tirer des conclusions sur la définition et la génération de conteneurs ouverts.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Quilbeuf, Jean. „Implantations distribuées de modèles à base de composants communicants par interactions multiparties avec priorités : application au langage BIP“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00947636.

Der volle Inhalt der Quelle
Annotation:
Les nouveaux systèmes ont souvent recours à une implémentation distribuée du logiciel, pour des raisons d'efficacité et à cause de l'emplacement physique de certains capteurs et actuateurs. S'assurer de la correction d'un logiciel distribué est difficile car cela impose de considérer tous les enchevêtrements possibles des actions exécutées par des processus distincts. Cette thèse propose une méthode pour générer, à partir d'un modèle d'application haut niveau, une implémentation distribuée correcte et efficace. Le modèle de l'application comporte des composants communiquant au moyen d'interactions multiparties avec priorités. L'exécution d'une interaction multipartie, qui correspond à un pas de la sémantique, change de façon atomique l'état de tous les composants participant à l'interaction. On définit une implantation distribuée comme un ensemble de processus communiquant par envoi de message asynchrone. La principale difficulté est de produire une implémentation correcte et efficace des interactions multiparties avec priorités, en utilisant uniquement l'envoi de message comme primitive. La méthode se fonde sur un flot de conception rigoureux qui raffine progressivement le modèle haut niveau en un modèle bas niveau, à partir duquel le code pour une plateforme particulière est généré. Tous les modèles intermédiaires apparaissant dans le flot sont exprimés avec la même sémantique que le modèle original. À chaque étape du flot, les interactions complexes sont remplacés par des constructions utilisant des interactions plus simples. En particulier, le dernier modèle obtenu avant la génération du code ne contient que des interactions modélisant l'envoi de message. La correction de l'implémentation est obtenue par construction. L'utilisation des interactions multiparties comme primitives dans le modèle de l'application permet de réduire très significativement l'ensemble des états atteignables, par rapport à un modèle équivalent mais utilisant des primitives de communication plus simples. Les propriétés essentielles du système sont vérifiées à ce niveau d'abstraction. Chaque transformation constituante du flot de conception est suffisamment simple pour être complètement formalisée et prouvée, en termes d'équivalence observationelle ou d'équivalence de trace entre le modèles avant et après transformation. L'implémentation ainsi obtenue est correcte par rapport au modèle original, ce qui évite une coûteuse vérification a posteriori. Concernant l'efficacité, la performance de l'implémentation peut être optimisée en choisissant les paramètres adéquats pour les transformations, ou en augmentant la connaissance des composants. Cette dernière solution requiert une analyse du modèle de départ afin de calculer la connaissance qui est réutilisée pour les étapes ultérieures du flot de conception. Les différentes transformations et optimisations constituant le flot de conception ont été implémentées dans le cadre de BIP. Cette implémentation a permis d'évaluer les différentes possibilités ainsi que l'influence des différents paramètres, sur la performance de l'implémentation obtenue avec plusieurs exemples. Le code généré utilise les primitives fournies par les sockets POSIX, MPI ou les pthreads pour envoyer des messages entre les processus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Noël, Victor. „Architectures logicielles à base de composants et systèmes multi-agents : contributions mutuelles et complémentaires pour supporter le développement logiciel“. Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00865795.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous explorons les diverses contributions que les systèmes multi-agents (SMA) et les architectures à base de composants (CBSA) peuvent mutuellement et complémentairement s'apporter l'un à l'autre. Dans un premier temps, nous définissons, illustrons, analysons et discutons une méthodologie du développement des SMA, un modèle de composants (SpeAD), un langage de description d'architecture (SpeADL) et une méthode de conception (SpEArAF) qui facilitent et guident la description et l'implémentation des SMA. Cette réponse complète au développement des SMA est assistée par un outil (MAY) et a été appliquée à un grand nombre d'applications. Dans un second temps, nous explorons à travers divers expériences l'aide que peuvent apporter les SMA auto-adaptatif aux CBSA. Les agents et leur réorganisation continuelle jouent à la fois le rôle de moteur de la construction et de l'adaptation dynamique de l'architecture, mais aussi du conteneur qui connecte ses éléments en pratique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Guennoun, Mohammed Karim. „Architectures dynamiques dans le contexte des applications à base de composants et orientées services“. Toulouse 3, 2006. http://www.theses.fr/2006TOU30236.

Der volle Inhalt der Quelle
Annotation:
L'adaptabilité des applications logicielles peut être séparée en deux catégories. La première concerne l'adaptation comportementale appelée aussi adaptation algorithmique. Cette adaptation traite la redéfinition du comportement de l'application et de ses composants et implique, par exemple, l'introduction d'une nouvelle méthode dans l'interface d'un composant ou le changement du protocole d'orchestration qui coordonne un ensemble de services. Nos travaux, que nous classons dans une deuxième catégorie, traitent l'adaptation structurelle et considèrent une reconfiguration au niveau architectural. Ce type de reconfiguration traite l'organisation de l'architecture et consiste, par exemple, à remplacer un composant défaillant par un autre composant qui possède les mêmes fonctionnalités ou rediriger un client d'un service qui ne respecte pas le contrat de QdS vers un service susceptible d'offrir de meilleures garanties. Dans ce mémoire, nous définissons un méta-modèle relatif à la description et la gestion automatique des architectures dynamiques. Les instances des architectures sont décrites par des graphes étendus où les composants (ou les services) sont représentés par des n\oe uds, et les interdépendances (e. G. Les connexions, les relations de contrôle. . . Etc) sont décrites par des arcs. Les styles architecturaux sont spécifiés par des grammaires de graphes étendues. Le méta-modèle admet des descriptions en considérant différents niveaux d'abstraction et offre des mécanismes pour raffiner ou abstraire les descriptions selon des points de vues spécifiques. Il permet, aussi, de décrire le protocole de gestion de l'architecture et de caractériser les propriétés architecturales à préserver pour chaque niveau architectural considéré. Nous avons développé un algorithme de recherche d'homomorphismes de graphes et un algorithme de transformation de graphes pour les grammaires de graphes étendus définis pour notre méta-modèle. L'analyse de complexité des algorithmes ainsi que les résultats expérimentaux obtenus ont permis de conclure à leur efficacité. Une deuxième version des deux algorithmes a été définie profitant de la spécificité du contexte de la transformation de graphes. L'analyse de complexité de ces nouvelles versions donne des résultats encore plus performants pour le passage à l'échelle. .
Adaptability for software applications can be separated into two categories. First relates to the behavioral adaptation also called algorithmic adaptation. This adaptation addresses the redefinition of the behavior of the application and its components and implies, for example, adding a new method into the interface of a component or updating the orchestration protocol that coordinates a set of services. Second category, in which we can classify our work, relates to the structural adaptation and implies a reconfiguration at the architectural level. This kind of reconfiguration deals with the organization of the architecture and involve, for instance, the substitution of a failing component by another with same functionalities or the redirection for a customer of a service which does not respect the QoS contract towards a service likely to offer better guarantees. In this thesis, we specify a meta-model relating to the description and the automatic management of dynamic architectures. Architecture instances are described by extended graphs where components (or services) are represented by vertices, and interdependencies (e. G. Connections, relations of control. . . Etc) are described by edges. The architectural styles are specified by extended graph grammars. The meta-model considers descriptions by admitting various abstraction levels and offers mechanisms to either abstract or refine descriptions according to specific points of view. It, also, makes it possible to describe architecture management protocols and to characterize the architectural properties to be preserved for each considered architectural level. We developed an algorithm for graph homomorphisms building and an algorithm for graph transformation in the context of extended graph grammars defined for our meta-model. .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Jaber, Mohamad. „Implémentations Centralisée et Répartie de Systèmes Corrects par construction à base des Composants par Transformations Source-à-source dans BIP“. Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM062.

Der volle Inhalt der Quelle
Annotation:
La thèse étudie la théorie et les méthodes qui permettent de générer automatiquement des implémentations efficaces tant centralisées que distribuées à partir d'une langage de description de haut niveau pour les applications logicielles embarquées. Ce langage (modèle) appelé BIP (un acronyme pour Behavior, Interaction, Priority) est un outil de développement logiciel fondé sur une théorie saine qui permet la composition incrémentale de composants hétérogènes, ainsi que la génération de code. Une coordination entre les composantes est réalisée en utilisant des interactions multiparties et des priorités dynamiques pour planifier les interactions. L'idée de base consiste à utiliser un ensemble de transformations source-à-source correctes en préservant les propriétés fonctionnelles de l'application logiciel. En appliquant ces transformations, nous pouvons générer une gamme des implémentations centralisées, partiellement distribuées et entièrement distribuées. Implémentations Centralisées: la méthode transforme les interactions d'un logiciel décrit dans BIP et génère un programme équivalent au niveau fonctionnel. La méthode est basée sur l'application successive de trois types de transformations source-à-source: aplatissement des composants, aplatissement des connecteurs et la composition des composants. On a montré que le système des transformations est confluent et se termine. Par une application exhaustive de ces transformations, un composant BIP peut être transformé en un composant atomique. A partir de ce composant, un code C++ efficace peut être généré. Implémentations Distribuées: Pour une partition donnée des interactions la méthode transforme un application logiciel décrit en BIP, en un modèle Send/Receive BIP. Ce modèle BIP est constitué des composants coordonnés à l'aide des messages asynchrones (Send/Receive). La méthode conduit à une architecture de 3-couches. La couche inférieure comprend les composants du logiciel où les fortes synchronisations atomiques sont implémentées par des séquences des primitives Send/Receive. La deuxième couche comprend un ensemble de protocoles d'interaction. Chaque protocole gère un ensemble des interactions. La troisième couche implémente un protocole de résolution des conflits utilisées pour résoudre les conflits entre les interactions conflictuelles de la deuxième couche. A partir des modèles Send/Receive BIP, une implémentation C++ est générée automatiquement. Les transformations ont été implémentées et intégrées dans la chaîne d'outil BIP. Les résultats expérimentaux sur des exemples non triviaux et des études de cas montrent la nouveauté et l'efficacité de notre approche
The thesis studies theory and methods for generating automatically centralized and distributed implementations from a high-level model of an application software in BIP. BIP (Behavior, Interaction, Priority) is a component framework with formal operational semantics. Coordination between components is achieved by using multiparty interactions and dynamic priorities for scheduling interactions. A key idea is to use a set of correct source-to-source transformations preserving the functional properties of a given application software. By application of these transformations we can generate a full range of implementations from centralized to fully distributed. Centralized Implementation: the implementation method transforms the interactions of an application software described in BIP and generates a functionally equivalent program. The method is based on the successive application of three types of source-to-source transformations: flattening of components, flattening of connectors and composition of atomic components. We shown that the system of the transformations is confluent and terminates. By exhaustive application of the transformations, any BIP component can be transformed into an equivalent monolithic component. From this component, efficient standalone C++ code can be generated. Distributed Implementation: the implementation method transforms an application software described in BIP for a given partition of its interactions, into a Send/Receive BIP model. Send/Receive BIP models consist of components coordinated by using asynchronous message passing (Send/Receive primitives). The method leads to 3-layer architectures. The bottom layer includes the components of the application software where atomic strong synchronization is implemented by sequences of Send/Receive primitives. The second layer includes a set of interaction protocols. Each protocol handles the interactions of a class of the given partition. The third layer implements a conflict resolution protocol used to resolve conflicts between conflicting interactions of the second layer. Depending on the given partition, the execution of obtained Send/Receive BIP model range from centralized (all interactions in the same class) to fully distributed (each class has a single interaction). From Send/Receive BIP models and a given mapping of their components on a platform providing Send/Receive primitives, an implementation is automatically generated. For each class of the partition we generate C++ code implementing the global behavior of its components. The transformations have been fully implemented and integrated into BIP tool-set. The experimental results on non trivial examples and case studies show the novelty and the efficiency of our approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Jaber, Mohamad. „Implémentations Centralisée et Répartie de Systèmes Corrects par construction à base des Composants par Transformations Source-à-source dans BIP“. Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00531082.

Der volle Inhalt der Quelle
Annotation:
The thesis studies theory and methods for generating automatically centralized and distributed implementations from a high-level model of an application software in BIP. BIP (Behavior, Interaction, Priority) is a component framework with formal operational semantics. Coordination between components is achieved by using multiparty interactions and dynamic priorities for scheduling interactions. A key idea is to use a set of correct source-to-source transformations preserving the functional properties of a given application software. By application of these transformations we can generate a full range of implementations from centralized to fully distributed. Centralized Implementation: the implementation method transforms the interactions of an application software described in BIP and generates a functionally equivalent program. The method is based on the successive application of three types of source-to-source transformations: flattening of components, flattening of connectors and composition of atomic components. We shown that the system of the transformations is confluent and terminates. By exhaustive application of the transformations, any BIP component can be transformed into an equivalent monolithic component. From this component, efficient standalone C++ code can be generated. Distributed Implementation: the implementation method transforms an application software described in BIP for a given partition of its interactions, into a Send/Receive BIP model. Send/Receive BIP models consist of components coordinated by using asynchronous message passing (Send/Receive primitives). The method leads to 3-layer architectures. The bottom layer includes the components of the application software where atomic strong synchronization is implemented by sequences of Send/Receive primitives. The second layer includes a set of interaction protocols. Each protocol handles the interactions of a class of the given partition. The third layer implements a conflict resolution protocol used to resolve conflicts between conflicting interactions of the second layer. Depending on the given partition, the execution of obtained Send/Receive BIP model range from centralized (all interactions in the same class) to fully distributed (each class has a single interaction). From Send/Receive BIP models and a given mapping of their components on a platform providing Send/Receive primitives, an implementation is automatically generated. For each class of the partition we generate C++ code implementing the global behavior of its components. The transformations have been fully implemented and integrated into BIP tool-set. The experimental results on non trivial examples and case studies show the novelty and the efficiency of our approach.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Bouaziz, Rahma. „Processus IDM pour l’intégration des patrons de sécurité dans une application à base de composants“. Thesis, Toulouse 2, 2013. http://www.theses.fr/2013TOU20101/document.

Der volle Inhalt der Quelle
Annotation:
La sécurité est devenue un enjeu important dans le développement des systèmes logiciels actuels. La majorité des concepteurs de ces systèmes manquent d’expertise dans le domaine de la sécurité. Il s’avère donc important de les guider tout au long des différentes phases de développement logiciel dans le but de produire des systèmes plus sécurisés. Cela permettra de réduire le temps ainsi que les coûts de développement. Pour atteindre cet objectif, nous proposons d’appliquer l’expertise en matière de sécurité sous forme de patrons de sécurité lors de la phase de conception de logiciels. Un patron de sécurité intègre des solutions éprouvées et génériques proposées par des experts en sécurité. Cependant, les patrons de sécurité sont souvent négligés au niveau de la conception et ne constituent pas une solution intuitive qui peut être utilisée par les concepteurs de logiciels. Cela peut être le résultat de l’inadaptation de ces patrons au contexte des systèmes, la non-expertise des concepteurs dans le domaine de la sécurité ou encore l’absence d’un processus d’intégration de ces patrons dans les modèles à un haut niveau d’abstraction.Afin de permettre aux concepteurs d’utiliser les solutions proposées par des patrons de sécurité, cette thèse propose une approche d’ingénierie dirigée par les modèles pour sécuriser des applications via l’intégration de patrons de sécurité. Nous avons choisi comme contexte d’application de notre approche, les applications à base de composants qui visent à faciliter le développement d’applications à partir de l’assemblage de briques logicielles préfabriquées appelées composants. Le processus proposé assure la séparation entre l’expertise du domaine d’application et l’expertise de sécurité, toutes les deux étant nécessaires pour construire une application sécurisée. La méthodologie proposée assure une intégration semi-automatique des patrons de sécurité dans le modèle initial. Cette intégration est réalisée tout d’abord lors de la modélisation de l’application à travers, dans un premier temps, l’élaboration de profils étendant les concepts du domaine avec les concepts de sécurité. Dans un second temps, l’intégration se fait à travers la définition de règles, qui une fois appliquées, génèrent une application sécurisée. Finalement, cette intégration est assurée aussi au niveau de la génération du code fonctionnel de l’application en intégrant le code non-fonctionnel relatif à la sécurité à travers l’utilisation des aspects. L’utilisation de l’approche orientée aspect garantit que l’application des patrons de sécurité est indépendante de toute application particulière. Le processus proposé est décrit avec le standard SPEM.Ce travail a été concrétisé par un outil nommé SCRI-TOOL pour SeCurity patteRn Integration Tool. Cet outil permet aux développeurs non experts en sécurité d’intégrer les différentes propriétés de sécurité (intégrées dans les patrons) dans une application à base de composants. Afin d’illustrer l’utilisation de SCRI-TOOL, nous proposons une étude de cas portant sur le domaine des systèmes de soins distribués. Le choix d’une telle étude de cas s’explique par l’importance des exigences en termes de sécurité requises pour le bon fonctionnement d’une telle application. En effet, vue le grand nombre d’acteurs pouvant interagir, la sécurité est une exigence critique dans de tels systèmes. Cette étude nous a permis de mettre en évidence l’importance de la gestion de la sécurité à un haut niveau d’abstraction et la façon d’appliquer la méthodologie proposée sur un cas réel
Security has become an important challenge in current software and system development. Most of designers are experts in software development but not experts in security. It is important to guide them to apply security mechanisms in the early phases of software development to reduce time and cost of development. To reach this objective, we propose to apply security expertise as security patterns at software design phase. A security pattern is a well-understood solution to a recurring information security problem. So, security patterns encapsulate the knowledge accumulated by security experts to secure a software system. Although well documented, patterns are often neglected at the design level and do not constitute an intuitive solution that can be used by software designers. This can be the result of the maladjustment of those patterns to systems context, the inexpertness of designers with security solutions and the need of integration process to let designers apply those pattern ? solutions in practical situations and to work with patterns at higher levels of abstraction. To enable designers to use solutions proposed by security patterns, this thesis proposes a model driven engineering approach to secure applications through the integration of security patterns. Component-based approach is a powerful means to develop and reuse complex systems. In this thesis, we take component based software systems as an application domain for our approach to facilitate the development of applications by assembling prefabricated software building blocks called components. The proposed process provides separation between domain expertise and application security expertise, both of which are needed to build a secure application. Our main goal is to provide a semi-automatic integrating of security patterns into component-based models, and producing an executable secure code. This integration is performed through a set of transformation rules. The result of this integration is a new model supporting security concepts. It is then automatically translated into aspect-oriented code related to security. These aspects are then woven in a modular way within the functional application code to enforce specified security properties. The use of aspect technology in the implementation phase guarantees that the application of security patterns is independent from any particular implementation. In order to provide a clear comprehension of the SCRIP process, we have described it using the standard SPEM . This work is implemented in a software tool called SCRI-TOOL (SeCurity patteRn Integration Tool). This tool allows not security experts developers to integrate different security properties throughout the development cycle of an component based application. To illustrate the use of SCRI-TOOL, we propose a case study regarding electronic healthcare systems. The choice of such a case study is motivated by the great attention archived for such systems from academia and industry and by the importance of security in such systems. Indeed, because of the large number of actors that can interact in such systems, security is a critical requirement. This case study will also allow us to illustrate the proposed methodology to highlight the importance of security management at a high level of abstraction. As results of the application of this process, we obtain a health care application completely secure and meeting the requirements of medical context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Lepreux, Sophie. „Approche de développement centré décideur et à l'aide de patron de systèmes interactifs d'aide à la décision : Application à l'investissement dans le domaine ferroviaire“. Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/007a05a5-88ef-48c2-bcaf-993bcac935dc.

Der volle Inhalt der Quelle
Annotation:
Les Systèmes Interactifs d'Aide à la Décision (SIAD) adaptés aux prises de décisions basées sur les connaissances sont au coeur de ces travaux. Un ensemble d'approches de développement (modèles, méthodes et architectures) provenant du génie logiciel, des IHM, des systèmes de connaissance, des systèmes à base de composants et des SIAD n'ont pas semblé correspondre au développement de ces SIAD. Une Approche de DEveloppement de Système Interactif d'Aide à la Décision (ADESIAD) a été proposée. Elle a pour particularité d'être centrée sur le décideur et d'utiliser des patrons pour formaliser et structurer la connaissance et définir les besoins en composants métier. SIADIF (Système Interactif d'Aide à la Décision en Investissement dans une infrastructure Ferroviaire) a été développé suivant ADESIAD pour Réseau Ferré de France. Les premières évaluations de SIADIF ont permis de valider globalement ADESIAD. Les perspectives de recherche visant à faire évoluer ADESIAD terminent cette thèse
This thesis presents the problematic of the choice between investment projects and focus to the need of Decision Support Systems (DSS) to help the railway authorities. We consider the case where the decision-making is mainly knowledge-based. In order to capitalize and reuse this knowledge, the component-based development (CBD) was studied. The approaches found in various domains such as software engineering, HCI, DSS, knowledge-based systems and CBD were investigated to match the development requirements. So, our work aims at the proposal of a new approach which includes a model, a method and an architecture as well. The approach aims at the decision-maker centered development and using patterns. It was applied to develop a DSS in the railway infrastructure investment domain. The first evaluation allowed to globally validate the approach and the end users agreed with the developed system. The perspectives of this work aims at extending the approach to other kinds of DSS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Constant, Olivier. „Une approche dirigée par les modèles pour l'intégration de la simulation de performance dans la conception de systèmes à base de composants“. Pau, 2006. http://www.theses.fr/2006PAUU3013.

Der volle Inhalt der Quelle
Annotation:
Pour être maîtrisée, la performance d'un système distribué doit être prise en compte tout au long du cycle de conception et développement du système, particulièrement si ce dernier est construit à base de composants réutilisés car il est alors plus difficilement prévisible. Mais l'évaluation de performance en conception nécessite des techniques spécifiques et des compétences peu courantes. Une solution consiste à étendre les langages de conception fonctionnelle de manière à transformer les modèles fonctionnels en modèles de performance du système. Cette thèse propose une approche rigoureuse, basée sur des techniques d'ingénierie des modèles ou MDE (Model-Driven Engineering), pour des transformations automatiques de modèles UML 2. 0 de systèmes à base de composants vers des modèles de simulation de performance à files d'attente. Un cadre conceptuel précis est d'abord défini par métamodélisation pour des modèles conçus à base de composants, exécutables et exploitant la puissance de la simulation. Le métamodèle, appelé CPM (Component Performance Metamodel), sert ensuite de support à la définition d'un profil pour UML 2. 0. Le profil est structuré en couches regroupant des fonctions et contraintes OCL (Object Constraint Language) ainsi que des extensions. Pour résoudre les ambiguïtés sémantiques d'UML 2. 0, le métamodèle des Diagrammes de Séquence est restreint à un sous-ensemble cohérent proche du langage MSC (Message Sequence Charts) puis muni de la sémantique formelle des MSC. L'exécutabilité est alors traitée par des restrictions qui permettent de définir des fonctions OCL de pilotage des transformations en fonction de la sémantique des modèles. Les modèles de performance générés sont exécutables par un simulateur de performance industriel
Predicting the performance of distributed systems is an issue that must be taken into account during the whole design and development process. This is especially true for systems that are built out of reused components since these systems are more difficult to predict. Nevertheless, evaluating the performance of a system at the design phase requires specific techniques and skills. A solution consists in extending classical design languages to allow transformation of design models into specific performance models. This thesis proposes a rigorous approach, based on MDE (Model-Driven Engineering) techniques, for the automatic transformation of UML 2. 0 models of component-based systems into queueing network models for performance simulation. A metamodel is first defined to provide a precise conceptual framework for component-based executable models exploiting the expressivity of simulation languages. The metamodel, called CPM (Component Performance Metamodel), is then used to define a profile for UML 2. 0. The profile is structured into several layers that group extensions and OCL (Object Constraint Language) queries and constraints. In order to solve the semantic ambiguities of UML, the metamodel of UML 2. 0 Sequence Diagrams is restricted to a subset close to the MSC (Message Sequence Charts) language. Using the formal semantics of MSC, the problem of model executability is tackled by additional constraints allowing to define OCL queries that can drive transformations on the basis of the semantics of the models. The generated performance models can be executed by an industrial performance simulator
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Hamoui, Mohamad Fady. „Un système multi-agents à base de composants pour l’adaptation autonomique au contexte – Application à la domotique“. Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20088/document.

Der volle Inhalt der Quelle
Annotation:
Les environnements domotiques sont des environnements ubiquitaires dans lesquels des équipements domestiques, disséminés dans une habitation, fournissent des services utilisables à distance au travers d'un réseau. Des systèmes domotiques sont proposés pour permettre aux utilisateurs de contrôler les équipements en fonction de leurs besoins.Idéalement, ces systèmes orchestrent l'exécution des services fournis par les équipements pour réaliser des services complexes. Mieux encore, ces systèmes doivent s'adapter à la variété des environnements en termes d'équipements et des besoins des utilisateurs. Ils doivent également pouvoir s'adapter dynamiquement, si possible de manière autonome, au changement de leur contexte d'exécution (apparition ou disparition d'un équipement, évolution des besoins).Dans cette thèse, nous apportons une réponse à cette problématique avec SAASHA, un système domotique multi-agents à base de composants. La combinaison de ses deux paradigmes permet de gérer l'adaptation à trois niveaux : présentation (interfaces utilisateur),organisation (architecture du système) et comportement (architecture interne des agents).Les agents perçoivent le contexte et ses changements. Les utilisateurs se voient proposer une vue dynamique du contexte leur permettant de définir des scénarios personnalisés sous forme de règles. Les agents se répartissent les rôles pour réaliser les scénarios. Ils modifient dynamiquement leur architecture interne grâce à la génération, au déploiement et à l'assemblage de composants pour se doter de nouveaux comportements de contrôle des équipements et des scénarios. Les agents collaborent ainsi pour exécuter les scénarios. En cas de changement, ces trois niveaux d'adaptation sont mis en oeuvre de manière dynamique et autonome pour maintenir la continuité de service. Un prototype de SAASHA, basé sur les standards industriels UPnP et OSGi, a été développé pour évaluer la faisabilité de notre proposition
Home automation environments are ubiquitous environments where domestic devices, scattered throughout a home, provide services that can be used remotely over a network. Home automation systems are proposed to enable the users of controlling the devices according to their needs. Ideally, these systems orchestrate the execution of the services provided by the devices to achieve complex services. Even more, these systems must adapt to the variety of environments in terms of devices and users needs. They must also be able to adapt dynamically, if possible in an autonomous manner, to the changes of their execution context (appearance or disappearance of a device, changing needs).In this thesis, we provide an answer to this problematic with SAASHA, a multi-agent home automation system based on components. The combination of these two paradigms enables managing the adaptation on three levels: presentation (user interface), organization (system architecture) and behavior (internal architecture of agents). The agents perceive their context and its changes. The Users are offered a dynamic view of the context allowing them to define custom scenarios as rules. The agents divide the roles among them to realize the scenarios. They modify dynamically their internal architecture throughout the generation, deployment and assembly of components to adopt new device control behaviors and scenarios. The agents collaborate to execute the scenarios. In case of a change, these three levels of adaptation are updated dynamically and autonomously to maintain the service continuity. A SAASHA prototype, based on UPnP and OSGi industry standards, has been developed to assess the feasibility of our proposal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Abdellatif, Tesnim. „Implémentation rigoureuse des systèmes temps-réels“. Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00744508.

Der volle Inhalt der Quelle
Annotation:
Les systèmes temps-réels sont des systèmes qui sont soumis à "des contraintes de temps", comme par exemple le délais de réponse d'un système à un événement physique. Souvent les temps de réponse sont de l'ordre du milliseconde et parfois même du microseconde. Construire des systèmes temps-réels nécessite l'utilisation de méthodologies de conception et de mise en œuvre qui garantissent la propriété de respect des contraintes de temps, par exemple un système doit réagir dans les limites définies par l'utilisateur tels que les délais et la périodicité. Un délai non respecté dans systèmes temps-réel critique est catastrophique, comme par exemple dans les systèmes automobiles. Si un airbag se déclanche tard dans un accident de voiture, même quelques millisecondes trop tard peuvent conduire à des répercussions graves. Dans les systèmes temps-réels non critiques, une perte significative de performance et de QoS peuvent se produire, comme par exemple dans les réseaux de systèmes multimédia. Contribution: Nous fournissons une méthode de conception rigoureuse des systèmes temps-réel. L'implèmentation est générée à partir d'une application logicielle temps-réel et une plate-forme cible, en utilisant les deux modèles suivants: * Un modèle abstrait représentant le comportement de l'application logicielle en temps réel sous forme d' un automate temporisé. Celui-ci décrit des contraintes temporelles définies par l'utilisateur qui sont indépendantes de la plateforme. Ses transitions sont intemporelles et correspondent à l'exécution des différentes instructions de l'application. * Un modèle physique représentant le comportement du logiciel en temps réel s'exécutant sur une plate-forme donnée. Il est obtenu par l'attribution des temps d'exécution aux transitions du modèle abstrait. Une condition nécessaire pour garantir l'implémentabilité dy système est la "time-safety", c'est à dire, toute séquence d'exécution du modèle physique est également une séquence d'exécution du modèle abstrait. "Time-safety" signifie que la plate-forme est assez rapide pour répondre aux exigences de synchronisation de l'application. Comme les temps d'exécution des actions ne sont pas connus avec exactitude, "time-safety" est vérifiée pour les temps d'exécution pire cas es actions en faisant l' hypothèse de la robustesse. La robustesse signifie que la "time-safety" est préservée lorsqu'on augmente la vitesse de la plate-forme d'exécution. Pour des logiciels et plate-forme d'exécution correspondant à un modèle robuste, nous définissons un moteur d'exécution qui coordonne l'exécution du logiciel d'application afin de répondre à ses contraintes temporelles. En outre, en cas de non-robustesse, le moteur d'exécution permet de détecter les violations de contraintes temporelles en arrêtant l'exécution. Nous avons mis en place le moteur d'exécution pour les programmes BIP. Nous avons validé la méthode pour la conception et la mise en œuvre du robot Dala. Nous montrons les avantages obtenus en termes d'utilisation du processeur et l'amélioration de la latence de la réaction.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Amiour, Mahfoud. „Vers une fédération de composants interopérables pour les environnements centrés procédés logiciels“. Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10078.

Der volle Inhalt der Quelle
Annotation:
On appelle procédé logiciel l'ensemble des activités, des équipes, des outils et des techniques dont le but est d'assurer le développement et la maintenance de systèmes logiciels. Les systèmes destinés à assister les procédés utilisent une approche monolithique et fermée qui tente de gérer, moyennant un système unique, les divers aspects du procédé. Nous proposons «une fédération de composants interopérables» visant à offrir un environnement distribué, hétérogène, ouvert et adaptable. L'environnement est bâti autour d'un ensemble de «composants» dédiés à la gestion d'un aspect particulier du procédé. Les composants sont hétérogènes du point de vue des concepts (sémantique), des formalismes (syntaxique) et des plate-formes d'exécution. L'architecture proposée, bâtie sur CORBA, permet de fédérer les composants autour d'un modèle qui décrit les parties qu'ils ont en commun (activités et produits), d'un méta modèle et d'un langage commun qui leur permettent d'interopérer au niveau sémantique et syntaxique. L'approche proposée a été adoptée dans l'implantation de l'environnement centré procédé APEL, et validé dans le cadre d'un projet européen traitant de la problématique d'évolution dans les procédés logiciels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bondé, Lossan. „Transformations de modèles et interopérabilité dans la conception de systèmes hétérogènes sur puce à base d'IP“. Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Bonde.pdf.

Der volle Inhalt der Quelle
Annotation:
Un système sur puce (SoC, pour« System on Chip ») est un circuit intégré qui comporte un ensemble de composants matériels (microprocesseurs, DSP, entrées/sorties. . . ) connectés entre eux par des bus de communication et une couche logicielle (système d'exploitation temps réel et applicatif). La conception de tels systèmes repose de plus en plus sur la réutilisation de composants virtuels (IP, pour Intellectual property). Le concepteur utilise des IPs très souvent d'origines diverses ayant des modèles hétérogènes (différents niveaux d'abstraction : comportemental, RTL, etc. ). Cette approche améliore le délai de mise sur le marché («time to market»), mais elle nécessite de la part du concepteur de nouvelles méthodes de conception. Gaspard propose une méthodologie basée sur l'Ingénierie Dirigée par les modèles (IDM) pour la conception des SoCs. Il vise l'utilisation de plusieurs plates-formes de simulation (Java, OpenMP, SystemC, VHDL, etc. ) et différents niveaux d'abstraction (TLM, RTL, etc. ). Les modèles des différentes plates-formes et niveaux d'abstraction sont générés dans Gaspard par transformations de modèles. L'hétérogénéité des plates-formes visées introduit un problème d'interopérabilité. Dans ce travail de thèse, nous proposons une démarche basée sur l'IDM pour répondre à ce besoin d'interopérabilité. Cette solution est élaborée en trois étapes. Dans un premier temps, nous introduisons la traçabilité dans les transformations de modèles; un modèle de trace est alors généré pendant les phases de transformations de modèles. Ce modèle de trace est ensuite utilisé en entrée d'une transformation pour générer un modèle de pont («bridge») d'interopérabilité. Enfin, la génération du code du pont d'interopérabilité est réalisée à partir du modèle de pont. Pour automatiser ce processus, nous avons défini un métamodèle de traçabilité et un métamodèle de pont d'interopérabilité. Les différentes opérations de transformations de modèles nécessaires ont également été décrites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Nain, Grégory. „EnTiMid : Un modèle de composants pour intégrer des objets communicants dans des applications à base de services“. Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00646664.

Der volle Inhalt der Quelle
Annotation:
Les systèmes logiciels tendent à se doter de facultés d'adaptation, d'évolution et d'ouverture. Ces capacités requièrent une grande flexibilité et dynamicité de l'environnement d'exécution, ainsi que de nouveaux outils d'assistance à la fabrication de ces systèmes. En électronique, des outils ont été déployés pour faire face à l'hétérogénéité et au nombre de composants, ainsi qu'aux besoins d'adaptation de produits existants à de nouvelles technologies. L'ouverture de la documentation et des spécifications a permis une grande richesse de solutions venant tant de bricoleurs que d'industriels. Inspiré par l'électronique, cette thèse contribue à l'amélioration de la flexibilité des systèmes logiciels tout en conservant un haut niveau de fiabilité. Les apports se font à trois niveaux. (1) Un nouveau modèle de composants qui offre une grande flexibilité et permet la connection de composants hétérogènes. (2) Des outils issus de l'ingénierie des modèles, pour créer, modifier, simuler et valider la structure et le comportement des assemblages de composants avant leur déploiement. (3) Un environnement d'exécution bati sur une architecture à base de services, pour supporter les évolutions, les adaptations et l'ouverture requises par le modèle de composant proposé. Cette thèse a été validée sur un cas concret dans un projet d'aide à domicile. Dans ce domaine, les systèmes logiciels doivent être adaptables et flexibles, pour répondre aux évolutions des besoins et pathologies des personnes âgées. Les bénéfices acquis de l'utilisation de cette approche dans ce contexte ont prouvé la pertinence de cette thèse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Guedria, Soulaimane. „Une plateforme d'apprentissage profond à base de composants qui passe à l'échelle : une application aux réseaux de neurones convolutionnels pour la segmentation en imagerie médicale“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM023.

Der volle Inhalt der Quelle
Annotation:
Les réseaux neuronaux profonds (DNNs), et plus particulièrement les réseaux neuronaux convolutifs (CNN) entraînés sur des grandes quantités de données, rencontrent un vif succès dans une multitude d'applications capitales, et particulièrement en imageries médicales. Cependant, l'entraînement de réseaux de neurones convolutifs (CNN) (1) est une tâche chronophage. De plus, (2) distribuer l'entraînement des CNNs est un défi ardu en pratique car il s'agit d'un processus fastidieux, répétitif et sujet aux erreurs. En outre, (3) il n'y a actuellement aucune étude approfondie sur la généralisation et la reproductibilité des techniques de parallélisation des CNNs particulièrement sur des applications concrètes de segmentation en imagerie médicale.Dans ce contexte, cette thèse vise à relever les défis susmentionnés. Pour cela, nous avons conçu, implémenté et validé une plateforme d'apprentissage profond à base de composants qui passe à l'échelle pour la segmentation en imagerie médicale. Au début, on introduit R2D2, une boîte à outils d'apprentissage profond de bout en bout qui passe à l'échelle. En effet, R2D2 introduit également un ensemble de nouvelles versions distribuées d'architectures d'apprentissage profond populaires afin d'accélérer l'entraînement effectif des modèles CNNs innovants dans des délais raisonnables et réduire l'écart entre les chercheurs et l'apprentissage en profondeur exigeant des compétences accrues. En outre, cette thèse introduit également Auto-CNNp, un nouveau framework basé sur les composants logiciels pour automatiser la parallélisation des CNNs en encapsulant et en cachant les tâches de routine de parallélisation au sein d'une structure de base tout en gardant la solution logicielle suffisamment flexible et extensible pour une personnalisation spécifique à l'utilisateur. Les résultats de l'évaluation de notre approche automatisée basée sur les composants sont prometteurs. Ils montrent qu'une accélération significative de la tâche de parallélisation CNN a été réalisée au détriment d'un temps d'exécution du framework négligeable, par rapport au temps nécessaire à la stratégie de parallélisation manuelle.Le couple de solutions logicielles précédemment introduites (R2D2 et Auto-CNNp) nous ont donné les outils appropriés pour effectuer une analyse expérimentale approfondie afin d'étudier la généralisation des techniques de parallélisation des CNNs vers la tâche de segmentation. Simultanément, nous avons mené une revue de littérature visant à étudier les sources de la reproductibilité dans l'entraînement des modèles d'apprentissage profond pour une configuration d'entraînement particulière de segmentation en imagerie médicale. Nous proposons également quelques recommandations de bonnes pratiques afin d'atténuer ces problèmes précités de reproductibilité d'entraînement des DNNs pour la segmentation en imagerie médicale. Enfin, nous faisons un certain nombre d'observations en nous basant sur une analyse approfondies des résultats de l'étude expérimentale déjà menée sur le parallélisation des CNNs, qui nous ont permis de proposer des directives et des recommandations pour distribuer l'entraînement des CNNs pour une segmentation sans perte de précision
Deep neural networks (DNNs) and particularly convolutional neural networks (CNNs) trained on large datasets are getting great success across a plethora of paramount applications. It has been providing powerful solutions and revolutionizing medicine, particularly, in the medical image analysis field. However, deep learning field comes up with multiple challenges: (1) training Convolutional Neural Networks (CNNs) is a computationally intensive and time-consuming task (2) introducing parallelism to CNNs in practice as it is a tedious, repetitive and error-prone process and (3) there is currently no broad study of the generalizability and the reproducibility of the CNN parallelism techniques on concrete medical imaging segmentation applications.Within this context, the present PhD thesis aims to tackle the aforementioned challenges. To achieve this goal, we conceived, implemented and validated an all-in-one scalable and component-based deep learning parallelism platform for medical imaging segmentation. First, we introduce R2D2, an end-to-end scalable deep learning toolkit for medical imaging segmentation. R2D2 proposes a set of new distributed versions of widely-used deep learning architectures (FCN and U-Net) in order to speed up building new distributive deep learning models and reduce the gap between researchers and talent-intensive deep learning. Next, this thesis also introduces Auto-CNNp, a component-based software framework to automate CNN parallelism throughout encapsulating and hiding typical CNNs parallelization routine tasks within a backbone structure while being extensible for user-specific customization. The evaluation results of our proposed automated component-based approach are promising. It shows that a significant speedup in the CNN parallelization task has been achieved to the detriment of a negligible framework execution time, compared to the manual parallelization strategy. The previously introduced couple of software solutions (R2D2 and Auto-CNNp) at our disposal led us to conduct a thorough and practical analysis of the generalizability of the CNN parallelism techniques to the imaging segmentation applications. Concurrently, we perform an in-depth literature review aiming to identify the sources of variability and study reproducibility issues of deep learning training process for particular CNNs training configurations applied for medical imaging segmentation. We also draw a set of good practices recommendations aiming to alleviate the aforementioned reproducibility issues for medical imaging segmentation DNNs training process. Finally, we make a number of observations based on a broad analysis of the results of the already conducted CNN parallelism experimental study which led us to propose a guideline and recommendations for scaling up CNNs for segmentation applications. We succeeded to eliminate the accuracy loss with scale for the U-Net CNN architecture and alleviate the accuracy degradation for the FCN CNN architecture
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Souchon, Frédéric. „SaGE, un système de gestion d'exceptions pour la programmation orientée message : le cas des systèmes multi-agents et des plates-formes à base de composants logiciels“. Montpellier 2, 2005. http://www.theses.fr/2005MON20148.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Nguyen, Dong-Ha. „Un langage d'aspects fondé sur les automates à pile visible : une approche pour la composition logicielle à l'aide de protocoles comportementaux non réguliers“. Nantes, 2011. http://www.theses.fr/2011NANT2069.

Der volle Inhalt der Quelle
Annotation:
Actuellement, il n’existe que peu de systèmes qui exploitent des langages de coupes basés sur des protocoles afin d’offrir des définitions d’aspects déclaratifs et de permettre de raisonner sur des propriétés de programmes orientés aspect. Par ailleurs, la plupart des approches à l’évolution des logiciels basés sur des protocoles ne soutiennent que des protocoles réguliers dont l’expressivité est limitée. L’objectif de cette thèse est de développer un langage d’aspects qui est non seulement plus expressif, mais aussi favorable à l’analyse et la vérification des propriétés compositionnelles. Notre langage d’aspect adresse de ces limitations par un langage basé sur des protocoles non réguliers ; nous fournissons, en outre, des techniques pour l’analyse des propriétés des composants qui sont modifiés à l’aide du langage. Concrètement, cette thèse a donné lieu à quatre contributions principales. Nous avons d’abord défini un langage d’aspects manipulant des protocoles définis à l’aide d’automates à pile visible (APV). Ensuite, nous avons appliqués ces aspects à l’analyse de propriétés compositionnelles fondamentales d’interactions entre composants. Troisièmement, nous avons examiné la technique de la vérification des modèles afin de vérifier les systèmes modifiés par des aspects fondés sur des APV. Quatrièmement, nous avons utilisé les aspects APV pour la définition des différentes fonctionnalités dans deux domaines d’application différents : la gestion de sessions de connexion imbriquées, et la gestion de requêtes dans les systèmes pair-à-pair
Currently, there are only few AOP systems that exploit protocol-based pointcut languages in order to enable declarative aspect definitions and provide support for reasoning over properties of AO programs. Furthermore, most approaches to protocol-based software evolution only support regular protocols which are limited in expressiveness. The goal of this thesis is to develop an aspect language that is not only more expressive but also amenable to property analysis and verification. Our aspect language addresses these limitations by extending the original framework with more specific language support for non-regular protocols as well as providing techniques for the analysis of properties of components. Concretely, this thesis provides four contributions. First, we have defined the VPA-based aspect language, which provides an aspect model on top of protocols defined using the class of visibly pushdown automata (VPAs). Second, we have used aspects over interaction protocols of software components in order to define and analyze fundamental correctness properties of components. Third, we have considered how to harness existing model checkers to verify systems that are modified by VPA-based aspects. Fourth, we have shown how VPA-based aspects can be useful for the definition of different functionalities in two different application domains : the management of nested login sessions, and the management of queries in P2P-based grid systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Faddoul, Rafic. „Optimisation de la maintenance des ouvrages de génie civil sur la base des critères de coût et de fiabilité“. Nantes, 2010. http://www.theses.fr/2010NANT2108.

Der volle Inhalt der Quelle
Annotation:
Nous proposons dans cette thèse un processus de décisions Markovien partiellement observable généralisé (GPOMDP) permettant l’optimisation des séquences de décisions complexes destinées à être appliquées durant chaque étape de l’horizon de planification de l’Inspection, la Maintenance et la Réhabilitation (IM&R) des ouvrages de Génie Civil. Nous proposons ensuite une méthodologie utilisant la technique de relaxation Lagrangienne pour l’optimisation de l’IM&R d’un groupe de structures soumis à une limitation des budgets alloués, créant ainsi une interdépendance économique entre les décisions relatives à chacune des structures. La méthodologie des multi-ouvrages est ensuite adaptée pour l’optimisation de l’IM&R des systèmes formés de plusieurs composants soumis à des contraintes de minimum de fiabilité acceptable durant chaque étape, créant ainsi une interdépendance structurelle entre les décisions relatives à chacun des composants. Puis, nous prenons en compte l’incertitude épistémique des matrices de transition des MDP. Les deux cas où l’incertitude épistémique est exprimée sous forme de distributions de probabilité Bayésiennes ou à l’aide des ensembles flous sont traités. Enfin, nous proposons une extension des POMDP de sorte qu’ils prennent en compte, au début de la planification, d’éventuelles informations gratuites qui peuvent être accessibles au gestionnaire du système durant les étapes futures. Nous supposons que de telles informations possèdent une structure de réseau Bayésien
We present in this thesis a Generalized Partially Observable Markov Decision Process GPOMDP which allows for the optimization of complex sequences of decisions during each time period of the planning horizon of the Inspection, Maintenance and Rehabilitation (IM&R) of civil engineering structures. Then, we propose a methodology, using a Lagrangian relaxation technique, for the optimization of the IM&R of multiple structures under the constraints of limited available budgets, creating thus an economical interdependence among the decisions relative to each of the structures of the group. Then, we adapt the multi-structure methodology for the IM&R optimization of series and parallel multi-component systems constrained by minimum reliability limits for the whole system during each stage, thus creating a structural or functional interdependence among the decisions related to each of its components. After that, we propose a methodology which takes into account the epistemic uncertainty veiling the true value of the transition matrices in MDPs. All of the information included in the characterization of the epistemic uncertainty is used. We deal with both cases where the epistemic uncertainty is expressed by means of Bayesian probabilities distributions, and fuzzy sets theory. Finally, we propose an extension of POMDPs in order to take into account, at the beginning of the planning horizon, the possible availability of free information in future time periods. We assume that this information has a Bayesian network structure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie