Dissertations / Theses on the topic 'Ingénierie Dirigée par le Modèle'

To see the other types of publications on this topic, follow the link: Ingénierie Dirigée par le Modèle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Ingénierie Dirigée par le Modèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Allon, Matthieu. "Ingénierie dirigée par les modèles basée sur les templates." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I051/document.

Full text
Abstract:
Pour répondre à la complexité grandissante des systèmes, la réutilisation de modèles est employée dans les phases amont d’analyse et de conception. Dans cette thèse, nous nous intéressons à cette réutilisation en privilégiant les modèles paramétrés que sont les templates. Ceux-ci expriment des connaissances générales applicables à différents contextes. Sur la base des ‘aspectual templates’ possédant un modèle en paramètre, nous proposons une ingénierie dédiée. Celle-ci est structurée autour d’un dépôt de modèles et de deux espaces de conception : celui des templates et celui des modèles applicatifs, chaque espace supportant des activités de modélisation spécifiques. Nous contribuons à cette ingénierie en approfondissant trois axes. Tout d’abord, en examinant la relation ‘bind’ des templates UML, nous isolons l’instanciation comme opération de plein droit pour construire un modèle basé sur la structure du template. Les questions d’instanciation partielle et de séquences d’instanciation sont aussi examinées. Ensuite, pour répondre à des besoins d’évolution de modèles, nous proposons des opérateurs pour détecter et supprimer des templates dans un modèle. Enfin, nous étudions l’application de templates sur une hiérarchie de modèles dont les usages se rencontrent dans le versionnement et la modélisation en équipe. Pour faciliter ces usages, des règles définissant la validité de telles applications et leurs effets sur les relations entre leurs modèles résultats sont données. Nous appliquons cette ingénierie en proposant des opérateurs, leur mise en œuvre dans une technologie réutilisable et leur expérimentation en modélisant un serveur REST d’agrégation d’informations
Against the growing complexity of systems, model reuse is often used in the analysis and design steps of software development. In this thesis, we explore this kind of reuse by focusing on templates which are parameterized models. Templates capture general knowledge that can be adapted to various application contexts. On the basis of ‘aspectual templates’ which have a model as parameter, we propose a dedicated engineering. This one is structured around a model repository and two design spaces : one for templates one and another for application models, each space supporting specific modeling activities. We contribute to this engineering by studying three topics First, through the analysis of the UML ‘bind’ relationship, we isolate instantiation as a first-class operation to build a model based on the template structure. Questions about partial instantiation and instantiation sequences are further examined. Then, in order to ease model understanding and evolution, we provide operators for detecting and deleting templates inside models. Finally, we study the application of templates on model hierarchies which occurs in model versioning and team modeling. To facilitate these uses, rules defining the validity of such application and their effects on the relations between resulting models are given. We apply this engineering by presenting corresponding operators, their implementation in a reusable technology and their experimentation to model a REST server of data curation
APA, Harvard, Vancouver, ISO, and other styles
2

Thomas, Frédéric. "Contribution à la prise en compte des plates-formes logicielles d'exécution dans une ingénierie générative dirigée par les modèles." Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00382556.

Full text
Abstract:
Face à la complexité inhérente des logiciels multitâches, une approche prometteuse est l'automatisation des développements. En pratique, cette automatisation se concrétise par des générateurs capables de produire des applications logicielles s'exécutant sur des plates-formes d'exécution multitâche (par exemple des systèmes d'exploitation multitâches). De tels générateurs constituent alors des ingénieries génératives dirigées par les modèles de ces plates-formes. Aujourd'hui, ces ingénieries décrivent implicitement ces plates-formes dans les générateurs eux-mêmes. Ces générateurs sont alors efficaces pour un ensemble de préoccupations homogènes, figées et répétitives. Dans le cas des systèmes multitâches, les besoins sont certes répétitifs, cependant, ils sont majoritairement hétérogènes et évolutifs. Les ingénieries mise en œuvre doivent alors être adaptables et flexibles. Pour y parvenir, cette étude consiste à modéliser explicitement les plates-formes logicielles d'exécution en entrée des générateurs afin de les capitaliser et de les réutiliser. Pour cela, elle définit un motif dédié à la modélisation des plates-formes logicielles d'exécution, une extension au langage UML destiné à la modélisation des plates-formes logicielles d'exécution multitâche (le profil Software Resource Modeling) et un style architecturale de transformation de modèle intégrant ces modèles de plates-formes explicites. Les deux premières contributions constituent l'extension UML de l'Object Management Group pour la modélisation et l'analyse des systèmes embarqués temps réel (MARTE).
APA, Harvard, Vancouver, ISO, and other styles
3

Simonin, Jacques. "Conception de l'architecture d'un système dirigée par un modèle d'urbanisme fonctionnel." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00512182.

Full text
Abstract:
La durabilité d'un système d'information (SI) peut être caractérisée en bonne partie par la réutilisabilité de ses services lors de la réalisation des processus métier de l'entreprise. L'architecture orientée services (SOA) pour un SI nécessite la prise en compte de la stratégie d'entreprise (marketing et évolutions technologiques) dans la conception des services afin d'augmenter la réutilisabilité de services existants. C'est l'objectif de l'architecture d'entreprise (EA), ou de l'urbanisme, qui définit une cible architecturale offrant une durabilité optimum du SI. Afin d'améliorer la réutilisation de services lors de l'évolution d'un SI, nous proposons d'intégrer une approche dynamique fondée sur l'EA pour toute nouvelle réalisation d'un processus métier de l'entreprise. Le principe de cette approche dynamique est de prendre en compte, lors de chaque usage de services, d'une part, les fonctions et les données manipulées et, d'autre part, les solutions techniques. L'amélioration de la durabilité du SI est évaluée dans notre approche par une mesure d'alignement entre l'architecture des services développés dans le SI et l'EA fonctionnelle de ce SI.
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Anh Tuyet. "Fédération : une architecture logicielle pour la construction d'applications dirigée par les modèles." Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00004643.

Full text
Abstract:
La construction d'applications par composition d'éléments existants permet de réduire le temps de développement des applications ; pour cette raison, c'est un thème central du génie logiciel. On peut trouver quatre types de composition proposés par les approches actuelles : l'intégration, la connexion, la coordination et l'orchestration. Tandis que l'intégration et la connexion se basent sur les liens directs liant les éléments à composer, la coordination et l'orchestration utilisent une architecture à deux niveaux dans laquelle la logique de composition est exprimée séparément. Cette thèse propose un modèle de composition, basé sur la coordination, où la réutilisation, l'évolution et l'adaptation sont les objectifs premiers. Le concept de domaine est proposé pour représenter un groupe d'éléments coordonnés fournissant une fonctionnalité clairement identifiée par un modèle conceptuel. La composition de domaines est effectuée en établissant des relations entre les concepts provenant des modèles conceptuels de ces domaines. Une fédération est introduite comme une architecture logicielle permettant la structuration des domaines et la composition de domaines. La composition de domaines est réalisée par la synchronisation de domaines à travers un espace partagé et contrôlé (univers commun) contenant la matérialisation des modèles conceptuels des domaines composés ainsi que des relations liant leurs concepts. Les environnements pour la conception, le développement, l'exécution et l'administration d'une fédération ont été réalisés, et plusieurs applications ont été construites afin de valider l'approche proposée dans cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
5

Didonet, del Fabro Marcos. "Gestion de métadonnées utilisant tissage et transformation de modèles." Nantes, 2007. http://www.theses.fr/2007NANT2039.

Full text
Abstract:
L’interaction et l’interopérabilité entre différentes sources de données sont une préoccupation majeure dans plusieurs rganisations. Ce problème devient plus important encore avec la multitude de formats de données, APIs et architectures existants. L’ingénierie dirigée par modèles (IDM) est un paradigme relativement nouveau qui permet de diminuer ces problèmes d’interopérabilité. L’IDM considère toutes les entités d’un système comme un modèle. Les plateformes IDM sont composées par des types de modèles différents. Les modèles de transformation sont des acteurs majeurs de cette approche. Ils sont utilisés pour définir des opérations entre modèles. Par contre, il y existe d’autres types d’interactions qui sont définies sur la base des liens. Une solution d’IDM complète doit supporter des différents types de liens. Les recherches en IDM se sont centrées dans l’étude des transformations de modèles. Par conséquence, il y a beaucoup de travail concernant différents types des liens, ainsi que leurs implications dans une plateforme IDM. Cette thèse étudie des formes différentes de liens entre les éléments de modèles différents. Je montre, à partir d’une étude des nombreux travaux existants, que le point le plus critique de ces solutions est le manque de généricité, extensibilité et adaptabilité. Ensuite, je présente une solution d’IDM générique pour la gestion des liens entre les éléments de modèles. La solution s’appelle le tissage de modèles. Le tissage de modèles propose l’utilisation de modèles de tissage pour capturer des types différents de liens. Un modèle de tissage est conforme à un étamodèle noyau de tissage. J’introduis un ensemble des définitions pour les modèles de tissage et concepts liés. Ensuite, je montre comment les modèles de tissage et modèles de transformations sont une solution générique pour différents problèmes d’interopérabilité des données. Les modèles de tissage sont utilisés pour générer des modèles de transformations. Ensuite, je présente un outil adaptive et générique pour la création de modèles de tissage. L’approche sera validée en implémentant un outil de tissage appelé AMW (ATLAS Model Weaver). Cet outil sera utilisé comme solution de base pour différents cas d’applications
The interaction and interoperability between different data sources is a major concern in many organizations. The different formats of data, APIs, and architectures increases the incompatibilities, in a way that interoperability and interaction between components becomes a very difficult task. Model driven engineering (MDE) is a paradigm that enables diminishing interoperability problems by considering every entity as a model. MDE platforms are composed of different kinds of models. Some of the most important kinds of models are transformation models, which are used to define fixed operations between different models. In addition to fixed transformation operations, there are other kinds of interactions and relationships between models. A complete MDE solution must be capable of handling different kinds of relationships. Until now, most research has concentrated on studying transformation languages. This means additional efforts must be undertaken to study these relationships and their implications on a MDE platform. This thesis studies different forms of relationships between models elements. We show through extensive related work that the major limitation of current solutions is the lack of genericity, extensibility and adaptability. We present a generic MDE solution for relationship management called model weaving. Model weaving proposes to capture different kinds of relationships between model elements in a weaving model. A weaving model conforms to extensions of a core weaving metamodel that supports basic relationship management. After proposing the unification of the conceptual foundations related to model weaving, we show how weaving models and transformation models are used as a generic approach for data interoperability. The weaving models are used to produce model transformations. Moreover, we present an adaptive framework for creating weaving models in a semi-automatic way. We validate our approach by developing a generic and adaptive tool called ATLAS Model Weaver (AMW), and by implementing several use cases from different application scenarios
APA, Harvard, Vancouver, ISO, and other styles
6

Bruneliere, Hugo. "Generic Model-based Approaches for Software Reverse Engineering and Comprehension." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4040/document.

Full text
Abstract:
De nos jours, les entreprises font souvent face à des problèmes de gestion, maintenance, évolution ou remplacement de leurs systèmes logiciel existants. La Rétro-Ingénierie est la phase requise d’obtention de diverses représentations de ces systèmes pour une meilleure compréhension de leurs buts / états.L’Ingénierie Dirigée par les Modèles (IDM) est un paradigme du Génie Logiciel reposant sur la création, manipulation et utilisation intensive de modèles dans les tâches de conception, développement, déploiement, intégration, maintenance et évolution. La Rétro-Ingénierie Dirigée par les Modèles (RIDM) a été proposée afin d’améliorer les approches de Rétro-Ingénierie traditionnelles. Elle vise à obtenir des modèles à partir d’un système existant, puis à les fédérer via des vues cohérentes pour une meilleure compréhension.Cependant, les solutions existantes sont limitées car étant souvent des intégrations spécifiques d’outils. Elles peuvent aussi être (très) hétérogènes, entravant ainsi leurs déploiements. Il manque donc de solutions pour que la RIDM puisse être combinée avec des capacités de vue / fédération de modèles.Dans cette thèse, nous proposons deux approches complémentaires, génériques et extensibles basées sur les modèles ainsi que leurs implémentations en open source basées sur Eclipse-EMF : (i) Pour faciliter l’élaboration de solutions de RIDM dans des contextes variés, en obtenant différents types de modèles à partir de systèmes existants (e.g. leurs codes source, données). (ii) Pour spécifier, construire et manipuler des vues fédérant différents modèles (e.g. résultant de la RIDM) selon des objectifs de compréhension (e.g. pour diverses parties prenantes)
Nowadays, companies face more and more the problem of managing, maintaining, evolving or replacing their existing software systems. Reverse Engineering is the required phase of obtaining various representations of these systems to provide a better comprehension of their purposes / states.Model Driven Engineering (MDE) is a Software Engineering paradigm relying on intensive model creation, manipulation and use within design, development, deployment, integration, maintenance and evolution tasks. Model Driven Reverse Engineering (MDRE) has been proposed to enhance traditional Reverse Engineering approaches via the application of MDE. It aims at obtaining models from an existing system according to various aspects, and then possibly federating them via coherent views for further comprehension.However, existing solutions are limited as they quite often rely on case-specific integrations of different tools. Moreover, they can sometimes be (very) heterogeneous which may hinder their practical deployments. Generic and extensible solutions are still missing for MDRE to be combined with model view / federation capabilities.In this thesis, we propose to rely on two complementary, generic and extensible model-based approaches and their Eclipse/EMF-based implementations in open source: (i) To facilitate the elaboration of MDRE solutions in many different contexts, by obtaining different kinds of models from existing systems (e.g. their source code, data). (ii) To specify, build and manipulate views federating different models (e.g. resulting from MDRE) according to comprehension objectives (e.g. for different stakeholders)
APA, Harvard, Vancouver, ISO, and other styles
7

Lardy, Romain. "Calcul intensif pour l'évaluation de la vulnérabilité en utilisant une approche d'Ingénierie Dirigée par les Modèles : application à la vulnérabilité des prairies au changement climatique sous contraintes de plans d'expériences." Thesis, Clermont-Ferrand 2, 2013. http://www.theses.fr/2013CLF22352/document.

Full text
Abstract:
La vulnérabilité est le degré de stress ou de perturbation qu’un système humain et environnemental est capable de supporter avant d’être endommagé. Au cours des dernières années, c’est devenu un sujet central de l’étude du changement global (incluant le changement climatique), et l’évaluation de la vulnérabilité des agro-écosystèmes aux changements climatiques s’inscrit en effet dans les axes prioritaires de l’Institut National de la Recherche Agronomique (INRA). La littérature sur le changement climatique contient de nombreuses explications de la vulnérabilité, basée sur la notion de sensibilité et faisant éventuellement appel à des idées plus complexes, depuis la prise en compte de l’exposition jusqu’aux impacts résiduels du changement climatique après mise en place de mesures d’adaptation. Dans le cadre des activités de l’Unité de Recherche sur les Ecosystèmes Prairiaux (UREP), l’intérêt porte sur la vulnérabilité des systèmes prairiaux et d’élevage face aux risques de réduction de la production laitière et herbagère, ainsi que la problématique de l’augmentation des émissions de gaz à effet de serre qui accompagne la production des services d’un écosystème prairial.Compte-tenu du fait que l’analyse de vulnérabilité s’apparente à une forme d’analyse de sensibilité et de la cascade d’incertitudes lors des évaluations des impacts du changement climatique, un grand nombre de simulations sont nécessaires. Dans ce cadre, afin de réduire le temps d’attente utilisateur, la conception d’un plan expérimental approprié est nécessaire, ainsi que l’utilisation du calcul à haute performance. De plus, l’analyse de vulnérabilité peut se composer de nombreuses étapes parmi lesquelles on trouve la conception (choix du modèle agro-écologique, des variables d’intérêt, des scénarii et des seuils de référence, la distribution des paramètres, …), la génération de plans expérimentaux, la création de surfaces de réponse, le calcul de métriques (par exemple des indices de vulnérabilité) et l’optimisation (à travers la conception et l’évaluation de mesures d’adaptation) de la vulnérabilité. À notre connaissance, aucun outil spécifique n’a été conçu ou validé dans le but de faciliter l’exécution de la majeure partie des tâches énoncées précédemment. Ainsi, la problématique de cette thèse a été de proposer une méthode générique pour la réalisation d’une analyse de vulnérabilité sous changement climatique. Le travail réalisé dans cette thèse a donc commencé par une révision du concept de vulnérabilité et la proposition d’une démarche générique, en s’appuyant sur une synthèse critique des notions de l’état de l’art. Ensuite, avec une approche d’Ingénierie Dirigée par les Modèles, nous avons conçu un outil informatique pour l’analyse de vulnérabilité. Cet outil, implémenté avec le cadriciel Eclipse Modeling Framework (EMF),est générique, modulaire et permet la distribution et l’interprétation des simulations. Enfin,des exemples applicatifs d’analyse de vulnérabilité au changement climatique ont été réalisés à l’aide des solutions proposées précédemment. Cette démarche s’est notamment appuyée sur l’utilisation du modèle biogéochimique d’écosystème prairial PaSim ([Riedo et al., 1998], [Vuichard 2007a], [Graux 2011])
Vulnerability is the degree to which human or environmental systems are likely toexperience harm due to a perturbation or a stress. In the last years, it has become a centralfocus of the global change (including climate change). Assessing the vulnerability of agroecosystemsto climate change is one of the priority areas of the French National Institute ofAgronomic Research (INRA). The climate change literature contains many explanations ofvulnerability, stemming from the notion of sensitivity to more complex ideas, yet takinginto account the exposure history of the system up to residual impacts of climate changeafter adaptation. In the framework of the activities of the INRA’s Grassland EcosystemResearch Unit (UREP) of Clermont-Ferrand, interest is on vulnerability of grassland andlivestock systems against the risk of reduced milk and forage production, and against theproblem of increased greenhouse gas emissions that comes with the production ofgrassland ecosystem services.Vulnerability assessment has similarities with sensitivity analysis and is based onsimulations of the target system, forced to respond to the changes of stress factors. Due tothe cascade of uncertainties in climate change impacts assessment, a large number ofsimulations are necessary. In this context, the need to reduce user waiting time calls for theconception of an appropriate experimental plan, as well as the use of high performancecomputing. Moreover, vulnerability assessment may consist of many steps, such asdesigning the experiment (choice of agro-ecological model, variables of interest, scenarios,reference thresholds, parameters distribution …), designing of the experimental plans,regressing response surfaces, computing metrics (e.g. vulnerability indices) and optimizingvulnerability (through designing and evaluating adaptation measures). To our knowledge,no specific tool has been built or validated, in order to facilitate the implementation ofmost of these tasks. Thus, the goal of this thesis was to propose a generic method toperform a comprehensive vulnerability analysis to climate change. The work in this thesishas begun with a review of the concept of vulnerability and the proposal of a genericapproach, based on a critical synthesis of the state of the art. Then, with a Model DrivenEngineering approach, we have developed a computer tool for vulnerability analysis. Thistool, implemented with the modelling framework Eclipse Modeling Framework (EMF) isgeneric, modular and allows the distribution and interpretation of simulation results.Finally, application examples of climate change vulnerability assessment were achievedwith the previously proposed solutions. This approach relied, in particular, on the use ofthe grassland ecosystem biogeochemical model PaSim ([Riedo et al., 1998], [Vuichard2007a], [Graux 2011])
APA, Harvard, Vancouver, ISO, and other styles
8

Steel, James Richard Heron. "Typage de Modèles." Rennes 1, 2007. https://tel.archives-ouvertes.fr/tel-00538274.

Full text
Abstract:
L'Ingénierie dirigée par les modèles est une approche pour la construction de systèmes fondées sur l'utilisation de modèles. Malgré une recherche très active sur les technologies d'IDM et leur application, il existe relativement peu de travaux sur la réutilisation et la composition fiable des éléments qui manipulent des modèles. Cette thèse présente une approche fondée sur les idées et formalismes du domaine des systèmes de types, pour définir des notions claires de modèles et de types de modèles, ainsi qu'une relation pour la substitution des types de modèles. Ces principes du typage de modèles ont été validés par leur application dans le langage de méta-modélisation Kermeta. De plus, la thèse revisite le problème de l'extensibilité des langages sous l'angle de l'ingénierie dirigée par les modèles, et elle détaille comment les types de modèles en résolvent certains aspects
Model-Driven Engineering is a discipline for the construction of systems based on the use of models. Although research is active into the use of MDE and its core technologies such as languages for storing, transforming and manipulating models, less attention has been paid to techniques for ensuring the safe reuse and composition of the elements which manipulate models. This thesis presents an approach based on ideas and formalisms from the domain of type systems for defining clear notions of models and model types, as well as a relation for model type substitutability. These model typing principles are demonstrated through their implementation in the Kermeta modelling and metamodelling language. Additionally, a presentation is made of the expression problem as it pertains to model-driven engineering, and of how the use of model types can help to address the issues it represents
APA, Harvard, Vancouver, ISO, and other styles
9

Rio, Maud. "A l'interface de l'ingénierie et de l'analyse environnementale : fédération pour une éco-conception proactice." Troyes, 2012. http://www.theses.fr/2012TROY0029.

Full text
Abstract:
Malgré le développement rapide d'outils et de méthodes appropriés, la pratique de l'écoconception reste difficile en industrie. En particulier par le manque de dynamisme et de flexibilité des échanges d'informations entre les concepteurs multi-métier et l'expert environnement durant le processus de conception. Ainsi, ces recherches proposent une méthode leur permettant d'améliorer l'interopérabilité de leurs outils en utilisant la fédération fondée sur l'approche d'Ingénierie Dirigée par les Modèles (IDM). La méthode se décline en une étape de création de modèles associés aux outils des concepteurs et de l'expert environnement, et en une étape d'utilisation des modèles pour déployer le processus de conception suivant la tactique définie par les chefs de département. La proposition a été expérimentée sur deux cas d'études des entreprises Parkeon et Quiksilver. Les résultats des expérimentations montrent que la méthode est applicable au milieu industriel et confère trois propriétés : (1) la capacité de s'adapter aux différents contextes que nécessite la pratique de l'éco-conception (2) l'échange dynamique des données disponibles entre les concepteurs et l'expert environnement et (3) la capacité de l'expert environnement à répondre de manière adaptée aux concepteurs afin qu'ils réitèrent leurs choix en faveur de la composante environnementale. Enfin, la méthode contribue à construire une pro-activité des métiers durant le processus de conception. Cette dynamique facilite l'application de la tactique et de la stratégie environnementale
Observing how is performed eco-design in industry shows that environmental experts are facing some difficulties to share data with multi-domain product designers tools: technical limitations regarding standards, lack of modularity and flexibility, semantical loss associate to the data, etc. Therefore, this research contribution is to propose a method to build dynamic information exchanges between environmental experts and product designers activities involved along the design process, based on federation using Model Driven Engineering. The method is composed of two complementary parts: creating the environmental tools models to implement the company library and supporting the ecodesign process deployment regarding the global environmental strategy and tactic. The proposal has been tested on two industrial case studies: in the companies Parkeon and Quiksilver. The experimentations results shows that the method is adapted to industries and confers three properties : (1) the adaptation to the various eco-design contexts encountered during the design process (2) the capacity for the environmental expert to use any available informations produced by other designers (keeping the data semantic) and (3) the capacity for the environmental expert to give back to designers an adapted answer to help them reiterate their respective choice. This research contributes to build a constant proactivity along the design process between designers and environmental expert. They are better supported to follow the environmental tactic and strategy of the company
APA, Harvard, Vancouver, ISO, and other styles
10

Gherbi, Tahar. "Une démarche d'ingénierie dirigée par les modèles pour le développement d'applications mobiles." Lorient, 2014. http://www.theses.fr/2014LORIS331.

Full text
Abstract:
Les agents mobiles facilitent l’implémentation d’applications dynamiquement adaptables et constituent un cadre générique pour le développement d’applications réparties sur de grands réseaux. Des applications basées sur les agents mobiles sont en cours d'élaboration dans les milieux industriels, gouvernementaux et universitaires ; et des experts prévoient l’usage des agents mobiles dans plusieurs applications d’Internet dans les prochaines années. Généralement, le développement des applications d’agents mobiles s’effectue sans considérer en amont l’aspect « mobilité » dans les phases d’analyse et de conception. La mobilité est souvent traitée dans la phase d’implémentation. La faire remonter vers les phases d’analyse et de conception, permet de mieux concevoir ce type d’applications. Cependant, peu de travaux de recherche ont porté sur les méthodes et outils d’analyse et de conception des applications à agents mobiles. Selon la littérature, la modélisation de ces applications se fait selon trois approches: l'approche par patrons de conception, l'approche formelle et l'approche semi formelle, où l’on distingue les formalismes étendant des notations d’UML et les approches étendant une méthodologie de développement de Systèmes Multi-Agents (SMA). Puisque les SMA sont pertinents dans la conception des applications, nous nous intéressons à étendre une méthodologie de SMA pour supporter la mobilité. D’un autre coté, l’ingénierie des modèles (IDM) aide à réduire le fossé entre les méthodologies de SMA, dont la majorité n’inclut pas la phase d’implémentation, et les plateformes d’exécution. Elle facilite aussi le déplacement des agents mobiles entre des plateformes hétérogènes en transférant le modèle de l’agent plutôt que son code. Par conséquent, notre travail consiste, plus exactement, à faire remonter l’aspect « mobilité » vers la phase de conception et à proposer une approche d’IDM pour développer des systèmes multiagents supportant la mobilité. De nombreuses méthodologies de développement de SMA existent. Aucune n’est universelle et il n’existe pas de méta-modèle standard de conception de SMA ; C'est pourquoi nous avons cherché un méta-modèle qui soit simple, modulaire, général et évolutif. Notre choix s’est porté sur le métamodèle conceptuel de la méthode MDAD (Model Driven Agent Development) que nous avons étendu pour supporter la mobilité et faire de lui le PIMM (Platform Independent Meta-Model) de notre approche. Pour illustrer cette dernière, un exemple d’application "Recherche de localisations d’un livre à travers un réseau" a été développé (de la modélisation jusqu’à la génération de code). JavAct, une plateforme d’exécution d’agents mobiles, a été utilisée, un PSMM (Platform Specific Meta-Model) lui a été construit et des règles de transformations (PIMM-vers-PSMM) et de génération de code depuis les PSM obtenus ont été élaborées
Mobile agents facilitate the implementation of dynamically adaptable applications and provide a generic framework to develop distributed applications on large networks. Applications based on mobile agents are being developed in industry, government and academia; and experts predict the use of mobile agents in many Internet applications in the coming years. Generally, the development of mobile-agents applications is done without considering the "mobility" aspect in the analysis and design phases; this aspect is often treated at the implementation phase. Considering it earlier (i. E. , in the analysis and design phases), allows for a better design of this kind of applications. However, little research has focused on methods and tools of analysis and design of mobiles-agents applications. According to literature, modeling these applications can be done with three approaches: design patterns approach, formal approach and semi formal approach which includes formalisms extending Unified Modeling Language notations and approaches extending a multi-agents systems development methodology. Because multi-agents systems are relevant to design applications, we are interested in extending a multi-agents systems development methodology to support mobility. On another hand, model driven engineering helps to reduce the gap between multi-agents systems development methodologies (as the majority does not include an implementation phase) and runtime platforms. It also facilitates the moves of mobiles-agents across heterogeneous platforms, by transferring the agent’s model rather than its code. Consequently, this work considers "mobility" in the design phase and proposes a model driven engineering approach to develop multi-agents systems supporting mobility. Many multi-agents systems development methodologies exist. None is universal and there is no standard meta-model to design multi-agents systems; it is why we have looked for a meta-model which is simple, modular, general and scalable. Our choice fell on the conceptual meta- model of MDAD (Model Driven Agent Development) methodology which we extended to support mobilityand used it as the PIMM (Platform Independent Meta -Model) of our approach. To illustrate this latter, an application example “Find locations of a book through a network” has been developed (from modeling to code generation). JAVACT, a runtime platform for mobile agents, was used, a PSMM (Platform Specific Meta -Model) was built for it and rules for (PIMM-to-PSMM) transformation and code generation from the PSM obtained have been developed
APA, Harvard, Vancouver, ISO, and other styles
11

El, Hajj Chehade Wassim. "Déploiement Multiplateforme d'Applications Multitâche par la Modélisation." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00671383.

Full text
Abstract:
Face à la complexité des logiciels multitâches, liée aux contextes économique et concurrentiel très pressants, la portabilité des applications et la réutilisabilité des processus de déploiement sont devenues un enjeu majeur. L'ingénierie dirigée par les modèles est une approche qui aspire répondre à ces besoins en séparant les préoccupations fonctionnelles des systèmes multitâches de leurs préoccupations techniques, tout en maintenant la relation entre eux. En pratique, cela se concrétise par des transformations de modèles capables de spécialiser les modèles pour des plates-formes cibles. Actuellement, les préoccupations spécifiques à ces plates-formes sont décrites implicitement dans les transformations eux même. Par conséquence, ces transformations ne sont pas réutilisables et ne permettent pas de répondre aux besoins hétérogènes et évolutifs qui caractérisent les systèmes multitâches. Notre objectif est alors d'appliquer le principe de séparation de préoccupation au niveau même de la transformation des modèles, une démarche qui garantie la portabilité des modèles et la réutilisabilité des processus de transformation.Pour cela, cette étude propose premièrement une modélisation comportementale détaillée des plates-formes d'exécutions logicielles. Cette modélisation permet d'extraire les préoccupations spécifiques à une plate-forme de la transformation de modèle et les capturer dans un modèle détaillé indépendant et réutilisable. Dans un second temps, en se basant sur ces modèles, elle présente un processus générique de développement des systèmes concurrents multitâches. L'originalité de cette approche réside dans une véritable séparation des préoccupations entre trois acteurs à savoir le développeur des chaînes de transformation, qui spécifient une transformation de modèle générique, les fournisseurs des plates-formes qui fournissent des modèles détaillés de leurs plates-formes et le concepteur des applications multitâche qui modélise le système. A la fin de cette étude, une évaluation de cette approche permet de montrer une réduction dans le coût de déploiement des applications sur plusieurs plates-formes sans impliquer un surcoût de performance.
APA, Harvard, Vancouver, ISO, and other styles
12

Aboussoror, El Arbi. "Méthodes de diagnostic avancées dans la validation formelle des modèles." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2063/.

Full text
Abstract:
Malgré l'existence d'un nombre important d'approches et outils de vérification à base de modèles, leur utilisation dans l'industrie reste très limitée. Parmi les raisons qui expliquent ce décalage il y a l'exploitation, aujourd'hui difficile, des résultats du processus de vérification. Dans cette thèse, nous étudions l'utilisation des outils de vérification dans les processus actuels de modélisation de systèmes qui utilisent intensivement la validation à base de modèles. Nous établissons ensuite les limites des approches existantes, surtout en termes d'utilisabilité. A partir de cette étude, nous analysons les causes de l'état actuel des pratiques. Nous proposons une approche complète et outillée d'aide au diagnostic d'erreur qui améliore l'exploitation des résultats de vérification, en introduisant des techniques mettant à profit la visualisation d'information et l'ergonomie cognitive. En particulier, nous proposons un ensemble de recommandations pour la conception d'outils de diagnostic, un processus générique adaptable aux processus de validation intégrant une activité de diagnostic, ainsi qu'un framework basé sur les techniques de l'Ingénierie Dirigée par les Modèles (IDM) permettant une implémentation et une personnalisation rapide de visualisations. Notre approche a été appliquée à une chaîne d'outils existante, qui intègre la validation de modèles UML et SysML de systèmes temps réel critiques. Une validation empirique des résultats a démontré une amélioration significative de l'utilisabilité de l'outil de diagnostic, après la prise en compte de nos préconisations
A plethora of theoretical results are available which make possible the use of dynamic analysis and model-checking for software and system models expressed in high-level modeling languages like UML, SDL or AADL. Their usage is hindered by the complexity of information processing demanded from the modeller in order to apply them and to effectively exploit their results. Our thesis is that by improving the visual presentation of the analysis results, their exploitation can be highly improved. To support this thesis, we define a diagnostic trace analysis approach based on information visualisation and human factors techniques. This approach offers the basis for new types of scenario visualizations, improving diagnostic trace understanding. Our contribution was implemented in an existing UML/SysML analyzer and was validated in a controlled experiment that shows a significant increase in the usability of our tool, both in terms of task performance speed and in terms of user satisfaction. The pertinence of our approach is assessed through an evaluation, based on well-established evaluation mechanisms. In order to perform such an evaluation, we needed to adapt the notion of usability to the context of formal methods usability, and to adapt the evaluation process to our setting. The goal of this experiment was to see whether extending analysis tools with a well-designed event-based visualization would significantly improve analysis results exploitation and the results are meeting our expectations
APA, Harvard, Vancouver, ISO, and other styles
13

Caron, Pierre-André. "Ingénierie dirigée par les modèles pour la construction de dispositifs pédagogiques sur des plateformes de formation." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2007. http://tel.archives-ouvertes.fr/tel-00156376.

Full text
Abstract:
Notre problématique en EIAH (environnements informatiques pour l'apprentissage humain) concerne la place de l'informatique quant à l'aide qu'elle peut apporter à des enseignants pour accommoder leur enseignement sur des plate-formes de formation. Cette problématique, très générale, nous a amené à nous interroger sur l'organisation sociale des enseignants que nous souhaitons adresser, sur les pratiques de création enseignante, sur les objets pédagogiques que ces pratiques nécessitent, ainsi que sur les médias accueillant ces pratiques. Nous décrivons les contours d'une ingénierie des EIAHs adaptée à des équipes d'enseignants pratiquant le bricolage pédagogique dans une perspective artisanale. Cette ingénierie repose sur une infrastructure exploitant les ressources de l'ingénierie dirigée par les modèles adaptées au domaine des EIAHs. Cette infrastructure est composée d'une plate-forme de modélisation et d'un générateur de constructeur spécifique. Elle permet, de modéliser, de contextualiser et de construire des dispositifs pédagogiques sur des plate-formes de formation ou sur de simples applications Web. Trois études de cas menées pendant cette thèse illustrent les différents aspects de notre travail, et montrent que la proposition d'ingénierie que nous présentons permet d'adresser toute la diversité des environnements informatiques pour l'apprentissage humain. Nous concluons en montrant que les concepts et solutions présentées dans cette thèse permettent de relever les enjeux posés par les récentes évolutions en EIAH, tant au niveau des approches pédagogiques, que des médias utilisés
APA, Harvard, Vancouver, ISO, and other styles
14

Le, Nhan Tam. "Ingénierie dirigée par les modèles pour le provisioning d'images de machines virtuelles pour l'informatique en nuage." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00926228.

Full text
Abstract:
Le contexte et la problématique De nos jours, le cloud computing est omniprésent dans la recherche et aussi dans l'industrie. Il est considéré comme une nouvelle génération de l'informatique où les ressources informatiques virtuelles à l'échelle dynamique sont fournies comme des services via l'internet. Les utilisateurs peuvent accéder aux systèmes de cloud utilisant différentes interfaces sur leurs différents dis- positifs. Ils ont seulement besoin de payer ce qu'ils utilisent, respectant le l'accord de service (Service-Layer Agreement) établi entre eux et les fournisseurs de services de cloud. Une des caractéristiques principales du cloud computing est la virtualisation grâce à laquelle toutes les ressources deviennent transparentes aux utilisateurs. Les utilisateurs n'ont plus besoin de contrôler et de maintenir les infrastructures informatiques. La virtualisation dans le cloud computing combine des images de machines virtuelles (VMIs) et des machines physiques où ces images seront déployées. Typiquement, le déploiement d'une telle VMI comprend le démarrage de l'image, l'installation et la configuration des packages définis pas la VMI. Dans les approches traditionnelles, les VMIs sont crées par les experts techniques des fournisseurs de services cloud. Il s'agit des VMIs pré-packagés qui viennent avec des composants pré-installés et pré-configurés. Pour répondre à une requête d'un client, le fournisseur sélectionne une VMI appropriée pour cloner et déployer sur un nœud de cloud. Si une telle VMI n'existe pas, une nouvelle VMI va être créée pour cette requête. Cette VMI pourrait être générée à partir de la VMI existante la plus proche ou être entièrement neuve. Le cycle de vie de l'approvisionnement d'une VMI dans l'approche traditionnelle est décrite dans la Figure 1. Une VMI standard contient normalement plusieurs packages parmi lesquels certains qui ne seront jamais utilisés. Cela vient du fait que la VMI est créée au moment de conception pour le but d'être clonée plus tard. Cette approche a des inconvénients tels que la demande de ressources importantes pour stocker des VMIs ou pour les déployer. De plus, elle requiert le démarrage de plusieurs composants, y compris ceux non utilisés. Particulièrement, à partir du point de vue de gestion de services, il est difficile de gérer la complexité des interdépendances entre les différents composants afin de maintenir les VMIs déployées et de les faire évoluer. Pour résoudre les problèmes énumérés ci-dessus, les fournisseurs de services de cloud pourraient automatiser le processus d'approvisionnement et permettre aux utilisateurs de choisir des VMIs d'une manière flexible en gardant les profites des fournisseur en terme de temps, de ressources, et de coût. Dans cette optique, les fournisseurs devraient considérer quelques préoccupations: (1) Quels packages et dépendances seront déployés? (2) Comment optimiser une configuration en terme de coût, de temps, et de consommation de ressources? (3) Comment trouver la VMI la plus ressemblante et comment l'adapter pour obtenir une nouvelle VMI? (4) Comment éviter les erreurs qui viennent souvent des opérations manuelles? (5) Comment gérer l'évolution de la VMI déployée et l'adapter aux besoins de reconfigurer et de passer automatiquement à l'échelle? A cause de ces exigences, la construction d'un systèmes de gestion de plateformes cloud (PaaS-Platform as a Sevice) est difficile, particulièrement dans le processus d'approvisionnement de VMIs. Cette difficulté requiert donc une approche appropriée pour gérer les VMIs dans les systèmes de cloud computing. Cette méthode fournirait des solutions pour la reconfiguration et le passage automatique à l'échelle. Les défis et les problèmes clés A partir de la problématique, nous avons identifié sept défis pour le développement d'un processus d'approvisionnements dans cloud computing. * C1: Modélisation de la variabilité des options de configuration des VMIs afin de gérer les interdépendances entre les packages logiciels Les différents composants logiciels pourraient requérir des packages spécifiques ou des bibliothèques du système d'exploitation pour une configuration correcte. Ces dépendances doivent être arrangées, sélectionnées, et résolues manuellement pour chaque copie de la VMI standard. D'autre part, les VMIs sont créées pour répondre aux exigences d'utilisateurs qui pourraient partager des sous-besoins en commun. La modélisation de la similitude et de la variabilité des VMIs au regard de ces exigences est donc nécessaire. * C2: Réduction des données transférées via les réseaux pendant le processus d'approvisionnement Afin d'être prêt pour répondre aux requêtes de clients, plusieurs packages sont installés sur la machine virtuelle standard , y compris les packages qui ne seront pas utilisé. Ces packages devront être limités afin de minimaliser la taille des VMIs. * C3: Optimisation de la consommation de ressources pendant l'exécution Dans l'approche traditionnelle, les activités de création et de mise à jour des VMIs requièrent des opérations manuelles qui prennent du temps. D'autre part, tous les packages dans les VMIs, y compris ceux qui ne sont pas utilisés, sont démarrés et occupent donc des ressources. Ces consommations de ressources devraient être optimisées. * C4: Mise à disposition d'un outil interactif facilitant les choix de VMIs des utilisateurs Les fournisseurs de services cloud voudraient normalement donner la flexibilité aux utilisateurs clients dans leurs choix de VMIs. Cependant, les utilisateurs n'ont pas de con- naissances techniques approfondies. Pour cette raison, des outils facilitant les choix sont nécessaires. * C5: Automatisation du déploiement des VMIs Plusieurs opérations du processus d'approvisionnement sont très complexes. L'automatisation de ces opérations peut réduire le temps de déploiement et les erreurs. * C6: Support de la reconfiguration de VMIs pendant leurs exécutions Un des caractéristiques importantes de cloud computing est de fournir des services à la demande. Puisque les demandes évoluent pendant l'exécution des VMIs, les systèmes de cloud devraient aussi s'adapter à ces évolutions des demandes. * C7: Gestion de la topologie de déploiement de VMIs Le déploiement de VMIs ne doit pas seulement tenir en compte multiple VMIs avec la même configuration, mais aussi le cas de multiple VMIs ayant différentes configurations. De plus, le déploiement de VMIs pourrait être réalisé sur différentes plateformes de cloud quand le fournisseur de service accepte une infrastructure d'un autre fournisseur Afin d'adresser ces défis, nous considérons trois problèmes clés pour le déploiement du processus d'approvisionnement de VMIs: 1. Besoin d'un niveau d'abstraction pour la gestion de configurations de VMIs: Une approche appropriée devrait fournir un haut niveau d'abstraction pour la modélisation et la gestion des configurations des VMIs avec leurs packages et les dépendances entre ces packages. Cette abstraction permet aux ingénieurs experts des fournisseurs de services de cloud à spécifier la famille de produits de configurations de VMIs. Elle facilite aussi l'analyse et la modélisation de la similitude et de la variabilité des configurations de VMIs, ainsi que la création des VMIs valides et cohérentes. 2. Besoin d'un niveau d'abstraction pour le processus de déploiement de VMIs: Une ap- proche appropriée pour l'approvisionnement de VMIs devrait fournir une abstraction du processus de déploiement. 3. Besoin d'un processus de déploiement et de reconfiguration automatique: Une approche appropriée devrait fournir une abstraction du processus de déploiement et de reconfigura- tion automatique. Cette abstraction facilite la spécification, l'analyse, et la modélisation la modularité du processus. De plus, l'approche devrait supporter l'automatisation afin de réduire les tâches manuelles qui sont couteuses en terme de performance et contiennent potentiellement des erreurs.
APA, Harvard, Vancouver, ISO, and other styles
15

Falleri, Jean-Rémy. "Contributions à l'IDM : reconstruction et alignement de modèles de classes." Montpellier 2, 2009. http://www.theses.fr/2009MON20103.

Full text
Abstract:
Avec l'essor du paradigme MDE pour la conception de logiciels, la phase de modélisation devient de plus en plus primordiale. Durant cette phase, les concepteurs modélisent à l'aide d'un langage à classes (comme UML) un domaine particulier. Ces modèles sont utilisés ultérieurement lors de la conception. Les logiciels à développer devenant volumineux et complexes, il est fréquent que ces modèles soient développés indépendamment par des équipes distinctes. Cette thèse propose deux contributions facilitant l'intégration de modèles développés de la sorte. La première contribution est une approche qui permet de détecter de manière automatique les correspondances entre les éléments de deux modèles de classes distincts. Cette approche simplifie la mise en commun des différents modèles lors de la phase d'assemblage qui vise à intégrer tous les modèles dans un modèle de classes global. Mon approche est basée sur les travaux effectués sur l'alignement de schémas et d'ontologies. La deuxième contribution est une approche permettant d'éliminer les redondances (attributs et méthodes dupliqués) d'un modèle de classes, grâce à l'introduction de nouvelles super-classes. En effet, les redondances sont fréquentes dans les modèles développés indépendamment, car les équipes ne savent pas forcement quels attributs et méthodes ont été introduits par les autres équipes. Mon approche utilise un dérivé de l'Analyse Formelle de Concepts et des techniques de traitement des langues. En plus de la découverte de nouvelles classes abstraites, l'approche est aussi capable de découvrir des attributs et méthodes abstraits qui améliorent le niveau d'abstraction du modèle, facilitant ainsi sa réutilisation
With the growing interest towards the MDE paradigm, used for the development of software, the modeling phase is becoming more and more important. During this phase, the developers model, often with an object oriented language, a particular system. These models are used later during the conception. Since the softwares to build are becoming more complex and large, it's common that they are build independently by several teams. This thesis presents two contributions that ease the integration of class models developed this way
APA, Harvard, Vancouver, ISO, and other styles
16

Kabbaj, Mohammed Issam. "Gestion des déviations dans la mise en œuvre des procédés logiciels." Toulouse 2, 2009. http://www.theses.fr/2009TOU20035.

Full text
Abstract:
Dans cette thèse, nous proposons une démarche originale afin de gérer l’évolution des procédés lors de leur mise en œuvre, basée sur la gestion des déviations. Une déviation est considérée comme une action utilisateur qui viole l'une des contraintes du modèle de procédé. La détection des déviations consiste à comparer le modèle du procédé mis en œuvre, appelé « modèle de procédé », et le processus réel de développement observé via un système de monitoring des actions des utilisateurs. Le processus observé est capturé dans un « modèle observé ». Les aspects dynamiques et comportementaux sont décrits en termes de cycles de vie des éléments de procédé. Les deux modèles sont traduits en une représentation en logique des prédicats du 1er ordre. La détection et l'analyse des déviations sont basées sur une démarche formelle exploitant ces prédicats logiques. La prise de décision s'appuie, elle, sur un modèle de tolérance à base de règles exprimant la décision à prendre en tenant compte des contextes dans lesquels les déviations se produisent. La pertinence de la méthode réside dans sa capacité à proposer deux modes de gestion des déviations selon le contexte de la mise en œuvre : acceptation des déviations après adaptation dynamique du modèle de procédé pour les déviations considérées comme mineures. Ainsi, le traitement diffère en fonction du contexte de l'évolution du modèle de procédé souhaitée. Nous avons validé notre approche sur une étude de cas qui illustre la démarche employée. Un prototype opérationnel d'environnement exploitant cette démarche a été développé
In this thesis, we propose an original approach to process enactment evolution, based on formal management of process deviations. Deviations are defined as operations that violate process constraints. Once a deviation is detected, a deviation-tolerance model attached to the preset process is used to decide whether to accept or to reject the deviation. Detecting deviations consists to compare the enactable process model and the observed process of actual development through a monitoring system of user actions. The observed process is captured in observed process model. His behavioral and dynamic aspects are described in terms of the process elements life cycles. The observed model, is described in terms of current states of process elements, and history of operations performed by human actors. Both models are translated into first-order logic representation. Detecting and analysis of deviations are based on a formal approach exploiting this logical representation. The decision rests on a rules-based tolerance model that expresses decision to make with respect to contexts in which deviations occur. The method relevance lies in its ability to offer two managing deviations methods depending on the enactment context : acceptance of deviations after dynamic adaptation of process model for deviations that are considered as major ones, or mere tolerance, without changing process model for deviations considered as minor ones. Thus, treatment differs depending on the context of the desired evolution of process model. We have validated our approach with a case study that illustrates this approach. A prototype of a PSEE exploiting this approach has been developped
APA, Harvard, Vancouver, ISO, and other styles
17

Golra, Fahad Rafique. "A Refinement based methodology for software process modeling." Télécom Bretagne, 2014. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=14184.

Full text
Abstract:
Il y a une tendance croissante à considérer les processus d'une organisation comme l'une de ses grandes forces. Les processus sont des ressources réutilisables d'une organisation qui définissent les procédures de travail pour la réalisation de ses objectifs. Avec l'importance croissante du secteur des logiciels et des services, la standardisation des processus devient indispensable pour maintenir sa crédibilité. Le développement de processus suit un cycle de vie très similaire à celui du développement logiciel. Par exemple, il se compose de plusieurs phases et suit une approche incrémentale qui mène à son amélioration continue. Cette approche incrémentale peut être complétée par une stratégie basée sur le raffinement pour développer, exécuter et maintenir les processus de développement de logiciels. Cette thèse propose une base conceptuelle pour le développement de processus logiciels par raffinement, sans perdre de vue les exigences spécifiques de chaque phase du cycle de vie d'un tel processus. Elle utilise l'ingénierie dirigée par les modèles pour présenter un ensemble de méta-modèles pour le développement de processus logiciels où chaque méta-modèle correspond à une phase différente d'un processus (spécification, implémentation et instanciation). Le modèle d'un processus traverse une série de raffinement jusqu'à ce qu'elle soit enrichie par des capacités d'exécution. Le développement d'un interpréteur permet d'exécuter ce modèle. Il donne la possibilité de relier les modèles des differentes phases par des liens de traçabilité. Les intervenants peuvent interagir avec le processus en exécution à l'aide d'une interface de supervision. Un niveau de variabilité incluse dans les modèles de processus permet leur adaptation pendant l'exécution. Tout en prenant en compte la nécessité de se conformer aux standards adoptés par l'organisation, l'architecture de l'approche de modélisation proposée exploite le concept d'abstraction en s'inspirant de la notion de composant logiciel pour aider à la réutilisation de modèles de processus. Notre méthode est également prévue pour les entreprises qui veulent suivre plusieurs standards pour le même projet. Sur la base des connaissances acquises grâce à l'étude des langages de modélisation actuels du domaine, le cadre proposé pour la modélisation de processus présente une architecture qui se développe autour des concepts de «conception par contrat» et «conception pour et par la réutilisation». Ceci permet de construire un modèle de processus qui a une structure modulaire et garantit la correction des interactions entre des activités constituantes. Afin de favoriser la séparation des préoccupations, les flux de données au sein d'un processus sont gérés à un niveau d'abstraction différent de celui des flux de contrôle. La conformité entre ces deux niveaux permet d'offrir une architecture bicouche. Le flux de données lors de l'exécution est assuré par un système de gestion d'événements. Une évaluation des capacités de l'approche proposée est fournie par une analyse basée sur l'ensemble des «workflow patterns». Cela permet une comparaison directe de ses capacités avec d'autres approches de modélisation de processus.
There is an increasing trend to consider the processes of an organization as one of its highly valuable assets. Processes are the reusable assets of an organization which define the procedures of routine working for accomplishing its goals. The software industry has the potential to become one of the most internationally dispersed high-tech industry. With growing importance of software and services sector, standardization of processes is also becoming crucial to maintain credibility in the market. Software development processes follow a lifecycle that is very similar to the software development lifecycle. Similarly, multiple phases of a process development lifecycle follow an iterative/incremental approach that leads to continuous process improvement. This incremental approach calls for a refinement based strategy to develop, execute and maintain software development processes. This thesis develops a conceptual foundation for refinement based development of software processes keeping in view the precise requirements for each individual phase of process development lifecycle. It exploits model driven engineering to present a multi-metamodel framework for the development of software processes, where each metamodel corresponds to a different phase of a process. A process undergoes a series of refinements till it is enriched with execution capabilities. Keeping in view the need to comply with the adopted standards, the architecture of process modeling approach exploits the concept of abstraction. This mechanism also caters for special circumstances where a software enterprise needs to follow multiple process standards for the same project. On the basis of the insights gained from the examination of contemporary offerings in this domain, the proposed process modeling framework tends to foster an architecture that is developed around the concepts of ``design by contract" and ``design for reuse". This allows to develop a process model that is modular in structure and guarantees the correctness of interactions between the constituent activities. Separation of concerns being the motivation, data-flow within a process is handled at a different abstraction level than the control-flow. Conformance between these levels allows to offer a bi-layered architecture that handles the flow of data through an underlying event management system. An assessment of the capabilities of the proposed approach is provided through a comprehensive patterns-based analysis, which allows a direct comparison of its functionality with other process modeling approaches
APA, Harvard, Vancouver, ISO, and other styles
18

Dayan, David. "Proposition d'automates étendus pour la spécification et l'implémentation du MDA (Model-Driven Architecture)." Reims, 2009. http://www.theses.fr/2009REIMS012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Azaiez, Selma. "Approche dirigée par les modèles pour le développement de systèmes multi-agents." Phd thesis, Chambéry, 2007. http://tel.archives-ouvertes.fr/tel-00519195.

Full text
Abstract:
Les systèmes multi-agents s'attaquent aux nombreuses problématiques posées actuellement dans le monde informatique telles que la distribution, l'évolution, l'adaptabilité et l'interopérabilité des systèmes. Les solutions proposées par ces systèmes sont prometteuses et permettent d'obtenir des systèmes flexibles et évolutifs. Cependant, leur mise en oeuvre reste difficile. Ceci est dû au manque de techniques d'ingénierie adaptées à ce genre de système et qui permettent un développement fiable et cohérent. Bien qu'il existe plusieurs propositions intéressantes au niveau des méthodologies, des langages de spécification et des plates-formes d'implémentation orientés agent, celles-ci manquent de cohésion et font ressortir plusieurs différences aussi bien au niveau de la sémantique des concepts utilisés mais aussi au niveau des démarches de développement. Notre but durant cette thèse a été de proposer une approche flexible et cohérente supportant le développement des systèmes multiagents. Cette approche que nous baptisons ArchMDE se base sur une combinaison de l'approche centrée architecture et de l'approche dirigée par les modèles. L'approche centrée architecture nous permet de raisonner sur les éléments qui structurent le système multi-agents ainsi que leurs interactions. Elle permet d'identifier les patrons architecturaux nécessaires au développement des systèmes multi-agents en prenant en compte les différentes vues du système (vue organisationnelle, vue environnementale, etc.). L'approche orientée modèles nous permet d'exprimer de façon explicite la manière de combiner ces patrons architecturaux afin d'avoir une représentation globale du système multi-agents. D'autre part, IDM permet de couvrir les différentes phases du cycle de développement en adoptant une démarche basée sur la transformation de modèles. Cette démarche permet de garantir la cohérence du système durant les différentes phases du cycle de vie. Par ailleurs, celle-ci offre l'avantage de préserver le savoir-faire des développeurs en exprimant explicitement les opérations d'intégration (entre les patrons architecturaux) et de mapping (entre les modèles de conception et les modèles d'implémentation). Pour implanter ArchMDE, nous utilisons le cadre de développement ArchWare qui est basé sur le pi-calcul typé, polyadique et d'ordre supérieur, ce qui permet de supporter les aspects communicatifs et évolutifs des systèmes multi-agents. Le choix d'un cadre formel vise à réduire l'ambiguïté liée aux concepts multi-agents mais aussi à garantir une conception sûre. En effet, l'utilisation d'un langage formel donne la possibilité d'exprimer explicitement différentes propriétés structurelles et comportementales. Le cadre de développement ArchWare offre divers langages accompagnés de différents outils qui nous seront utiles pour mettre en oeuvre notre approche.
APA, Harvard, Vancouver, ISO, and other styles
20

Kifouche, Abdenour. "Ingénierie dirigée par les modèles pour la conception et la mise en œuvre des réseaux de capteurs." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2028/document.

Full text
Abstract:
Le cycle de vie d'un réseau de capteurs implique plusieurs étapes, telles que le dimensionnement du réseau, le développement de logiciels embarqués, la réalisation de matériels, des analyses et des simulations, le déploiement physique, l'exploitation des données et la maintenance du réseau. Tout au long de ce cycle, plusieurs outils spécifiques sont utilisés. Il est donc nécessaire de décrire manuellement les caractéristiques du réseau de capteurs dans chacun de ces outils en utilisant leurs propres langages. Il en résulte des coûts de développement importants et éventuellement des incohérences entre les différentes descriptions. Pour répondre à cette problématique, nous proposons une méthodologie basée sur l'approche MDE (Model Driven Engineering). Elle vise à couvrir toutes les étapes du cycle de vie d'un réseau de capteurs. Tous les concepts et les caractéristiques d'un réseau de capteurs sont décrits à l'aide d'un métamodèle. A partir de ce référentiel, il est possible d'extraire, à chaque étape du cycle de vie, une ou plusieurs facettes. Chaque facette est présentée et éditée avec l'outil le plus adéquat en créant des passerelles vers des outils tiers. Afin de mettre en œuvre la méthodologie proposée, un Framework est développé pour offrir un environnement de description multi-facettes : architecture réseau, architecture matérielle, architecture logicielle, flux de données et environnement physique. Un exemple de passerelle entre le Framework et un simulateur existant (Omnet++) a été développé pour estimer les performances des réseaux de capteurs. Le Framework permet la génération automatique des scripts de simulation ainsi que des codes sources pour les nœuds du réseau
The life cycle of a sensor network involves several steps, including network sizing, embedded software development, hardware design, analysis and simulation, physical deployment, data exploitation, and network maintenance. Throughout this cycle, several specific tools are used. It is therefore necessary to manually describe the characteristics of the sensor network in each of these tools using their own languages. This results in significant development costs and potential inconsistencies between the different descriptions. To address this problem, we propose a methodology based on model driven engineering approach. It aims to cover all life cycle steps of a sensor network. All concepts and characteristics of a sensor network are described using a metamodel. From this referential, it is possible to extract, at each step of the life cycle, one or more facets. Each facet is presented and edited with the most appropriate tool by creating gateways to external tools.In order to implement the proposed methodology, a Framework is developed to provide a multi-facets environment: network architecture, hardware architecture, software architecture, data flow and physical environment. An example of a gateway between the Framework and an existing simulator (Omnet++) has been developed to estimate sensor network performances. The Framework allows automatic generation of simulation scripts as well as source codes for network nodes
APA, Harvard, Vancouver, ISO, and other styles
21

Delotte, Olivier. "CoCSys : une approche basée sur la construction d'un modèle comportemental pour la conception de systèmes collaboratifs mobiles." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/odelotte.pdf.

Full text
Abstract:
Nos travaux s’inscrivent au croisement des domaines du Travail Collaboratif Assisté par Ordinateur (TCAO), de l’Interaction Humain-Machine (IHM) et du Génie Logiciel. Nos recherches concernent la prise en compte des exigences des utilisateurs, leur organisation sous forme d’un modèle comportemental puis sa projection sur une architecture collaborative. La mise en place de services collaboratifs pour des situations mobiles ainsi que la conception et l’adaptation des IHM (différents dispositifs et contextes) font partie de notre approche. Avec l’avènement des nouveaux modes de vie et de travail « mobiles », le vocable Travail Collaboratif Capillaire (TCC) est apparu pour exprimer cette irrigation de l’information vers des nouveaux dispositifs d’interaction. Il intègre les fondamentaux du travail collaboratif, c'est-à-dire les espaces de communication, de production et de coordination en ajoutant l’atteignabilité permanente via ces dispositifs miniaturisés et la prise en compte du contexte. Dans le cadre de cette thèse, nous avons travaillé sur un processus centré sur l’utilisateur pour la conception de systèmes collaboratifs mobiles appelé CoCSys. CoCSys est une démarche de conception de systèmes collaboratifs mobiles couvrant les phases d’expression des besoins, de conception, de validation et de mise en oeuvre sur une architecture collaborative. Ce processus est basé sur la formalisation des besoins des utilisateurs et l’identification de leurs objectifs en s’appuyant sur des scénarios pour prendre en compte différents contextes d’usage. Il s’appuie sur plusieurs modèles qui, par une approche MDA (Model Driven Architecture), se concrétise par des transformations des modèles en une application collaborative. Cette application s’intègre dans une architecture collaborative en 3 niveaux qui prend en compte les interfaces humain-machine adaptées en fonction du dispositif utilisé, des tâches à effectuer et des environnements des utilisateurs. Le but de CoCSys est de gérer le processus global assurant le passage de l’identification des besoins à la mise en oeuvre sur une architecture cible proposant différents dispositifs appropriés. CoCSys a nécessité la conception d’outils qui accompagnent les différentes phases du processus (conception des scénarios, construction du modèle comportemental de référence, transformations) qui ont été validés à travers un exemple concret de situation de dépannage dans le cadre du projet HelpMeToDo
Our work is an overlap of CSCW, CHI and Software Engineering Domains. We researched the various Requirements of Users, organized it in a Behavioural Model and finally demonstrated a Collaborative Architecture. Installation of collaborative services for mobile situations, the design and adaptation according to CHI (multiple devices and contexts of use) have been integrated in our approach. In line with the emergence of new age and varied working modes, the term “Capillary Collaborative Work” best expresses the irrigation of information to some interaction devices. CCW integrates foundations of CSCW (coordination, communication and production) through adding the persistent attainability via miniaturized devices and integrating context sensitive issues. In this thesis, we explicate a user-centred process for the conception of CCW systems named CoCSys (Collaborative Capillary Systems). CoCSys is a process that thoroughly covers different phases: express requirements, Design and validates model-based applications, implementation of a collaborative architecture. CoCSys is based on the definition of requirement and the identification of goals with respect to scenarios of use integrating the context of use. CoCSys implements multiple models through an MDA approach finalized by some transformations in the collaborative application. Computer human Interactions are adapted in regard to the devices used, the predicted task and the user’s environment. The goal of CoCSys is to management the global process from the requirements to the final architecture. CoCSys is assisted through two tools (CBME and KMDEg). This work has been validated by a concrete example in the HelpMeToDo Project
APA, Harvard, Vancouver, ISO, and other styles
22

Lajmi, Amine. "Usine logicielle de composants de simulation de procédés CAPE-OPEN." Paris 6, 2010. http://www.theses.fr/2010PA066062.

Full text
Abstract:
L’IFP est depuis une dizaine d'années acteur principal du développement du standard CAPE-OPEN pour l'interopérabilité de composants de simulation de procédés. Ce standard définit les interfaces que doivent implémenter les composants de simulation offerts par des fournisseurs logiciels différents pour pouvoir communiquer entre eux. La plupart des environnements commerciaux de simulation sont compatibles CAPE-OPEN, le plus souvent dans sa déclinaison Microsoft COM, parfois dans sa déclinaison CORBA, et prochainement sous une déclinaison. NET. Toutefois, même si le standard a contribué à la résolution des problèmes d’interopérabilité, l’architecture à base de composants qu’il impose a introduit une complexité supplémentaire, difficile à maîtriser notamment par les experts métier. En effet, le développement de nouveaux composants, et la maintenance de composants existants, nécessitent des connaissances non fonctionnelles liées au standard lui-même, et à sa déclinaison intergicielle. D’une part, ces composants contenant des connaissances d’origines diverses, leur développement est complexe. Ceci se traduit en pratique par la nécessité de faire collaborer plusieurs experts lors du développement et la maintenance des composants. D’autre part, les connaissances étant fortement couplées dans le code, ce dernier est difficile à comprendre, et donc difficile à maintenir. Ainsi, l’objectif de la thèse est donc de disposer d'un système d'ingénierie logicielle capable de faciliter l’adaptation d’un composant vers n'importe quelle implémentation, en particulier COM ou. NET. Plus précisément, l’objectif est d’arriver à minimiser cette complexité, en réalisant l’objectif de l’Ingénierie Dirigée par les Modèles (IDM), à savoir l’indépendance par rapport à la plateforme, dans un contexte particulier, de façon à permettre la génération de composants vers différents intergiciels. Afin d'atteindre cet objectif, nous proposons de nous appuyer sur les techniques de méta modélisation et de transformation de modèles. L’approche proposée consiste à séparer les trois aspects nécessaires au développement de ces composants : l’aspect métier, l’aspect CAPE-OPEN, et l’aspect intergiciel. Ces aspects sont modélisés séparément avec des langages visuels, conçus spécifiquement pour chaque aspect, et sont combinés automatiquement grâce à des mécanismes de transformation de modèles. Dans un premier temps, un état de l’art des principes et des pratiques de l’IDM est effectué. A travers cette étude, nous mettrons l’accent sur trois questions fondamentales, à savoir comment représenter les connaissances, comment transformer les connaissances, et enfin comment réunir les pratiques dans un canevas commun supportant un processus de développement agile. A la suite de cette étude, nous proposons une approche dirigée par les modèles basée sur la modélisation dédiée des aspects, et la transformation de modèles à base de graphes. Cette approche a été implémentée pour générer la structure interne du composant, ainsi qu’une partie de sa sémantique. Enfin, nous validons l’approche par rapport à un ensemble de critères, certains qualitatifs et d’autres formels, ainsi que par rapport à un ensemble de changements anticipés sur les aspects considérés.
APA, Harvard, Vancouver, ISO, and other styles
23

Bougaa, Mohammed. "Une approche basée sur les processus et dirigée par les compétences pour l'éducation en ingenierie des systèmes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC050/document.

Full text
Abstract:
Au cours de cette thèse, nous avons examinée les pratiques actuelles en matière d'éducation en IS. Nous avons proposé une approche centrée sur l'utilisation des processus normalisés en IS, tout en faisant en sorte que le scénario d'apprentissage soit très adaptable et qu'il puisse être piloté par les compétences d'IS acquises ou à acquérir. Ensuite, une plateforme Web a été développée pour soutenir cette nouvelle approche d'apprentissage. En utilisant cette approche, les étudiants ne seront pas seulement en mesure de bien concevoir le système demandé de manière distante et collaborative, mais ils seront aussi capables de l'élaborer de manière appropriée. Cela leur permettra d'apprendre les principes et processus fondamentaux de l'IS, à mieux communiquer dans un environement de travail, la gestion d'équipe, la collaboration et les compétences techniques connexes. Les formateurs d'un autre côté pourront mieux gérer leur parcours d'apprentissage, les ressources pédagogiques, et les résultats escomptés. En utilisant cette solution, les organisations de ces formateurs et étudiants, c'est-à-dire les universités et collèges, pourront gérer et normaliser les compétences acquises par leurs futurs ingénieurs systèmes à tous les niveaux
This thesis surveys the current practices and advancements in SE education. We ended up proposing a novel solution for SE education (an approach with its supporting web-based platform). The proposed approach is based on the recommendations of academic and industrial communities. It is centered around the use of SE standardized processes and at the same time very adaptive, with learning scenarios that can be driven by the acquired or to-be-taught SE competencies. The proposed solution is a web based platform that has been developed to support this novel approach within a distant Project Based Learning (PBL) environment. The solution aims to ease the learning at the same time of fundamental principles and processes of systems engineering, along with communication, team management, collaboration, and related soft skills. On the other hand, educators will be able to better manage their learning scenarios, training resources, and the expected outcomes. Last, educators and students' organizations using this solution will be able to manage and normalize the competencies to be acquired by their future systems engineers at every level
APA, Harvard, Vancouver, ISO, and other styles
24

Djeddai, Selma. "Combining formal verification environments and model-driven engineering." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2034/.

Full text
Abstract:
Les méthodes formelles (comme les prouveurs interactifs) sont de plus en plus utilisées dans la vérification de logiciels critiques. Elles peuvent compter sur leurs bases formelles solides ainsi que sur leurs sémantiques précises. Cependant, elles utilisent des notations complexes qui sont souvent difficiles à comprendre. D'un autre côté, l'Ingénierie Dirigée par les Modèles nous propose des langages de descriptions, comme les diagrammes de classes, utilisant des notations intuitives mais qui souffrent d'un manque de bases formelles. Dans cette thèse, nous proposons de faire interagir les deux domaines complémentaires que sont les méthodes formelles et l'ingénierie dirigée par les modèles. Nous proposons une approche permettant de transformer des types de données fonctionnels (utilisés dans les prouveurs interactifs) en diagrammes de classes et vice-versa. Afin d'atteindre ce but, nous utilisons une méthode de transformation dirigée par les modèles
Formal methods (such as interactive provers) are increasingly used in the verification of critical software. This is so because they rely on their strong formal basis and precise semantics. However, they use complex notations that are often difficult to understand. On the contrary, the tools and formalisms provided by Model Driven Engineering offer more attractive syntaxes and use intuitive notations. However, they suffer from a lack of formal foundations. In this thesis, we are interested in combining these two complementary domains that are formal methods and Model Driven Engineering. We propose an approach allowing to translate functional data types (used in interactive provers) into class diagrams and vice versa. To achieve this goal, we use a model-driven transformation method
APA, Harvard, Vancouver, ISO, and other styles
25

Béliche, Vale Samyr. "Approche dirigée par les modèles pour le développement des applications sensibles au contexte." Angers, 2009. http://www.theses.fr/2009ANGE0062.

Full text
Abstract:
Les applications logicielles deviennent de plus en plus complexes et courantes dans la vie des entreprises. L'automatisation des processus est désormais fondamentale pour faire face à la concurrence et promouvoir un gain de productivité. Récemment, les entreprises se sont intéressées à un nouveau genre d'applications : les applications sensibles au contexte. Ces applications sont mises en avant par le développement des technologies des dispositifs mobiles capables de se connecter à des réseaux, tel qu'Internet, de n'importe où et à tout moment. Dans cette thèse, nous proposons une méthodologie de développement des applications sensibles au contexte selon l'approche dirigée par les modèles. Nous proposons la séparation de la logique métier de celle du contexte dans des modèles indépendants et individuels. Cette séparation permet le traitement individuel de chaque domaine et la réutilisation de chaque modèle. . . .
Software applications are becoming more and more complex and common in enterprises. Nowadays, the automation of the development process is essential for facing up to the competition and improving productivity. Recently, a new application trend has become the aim of enterprises : context-aware applications. These applications are propelled by the development of mobile device technologies which can now connect to various networks, everywhere, anywhere and at anytime. In this thesis, we propose a methodologyfor the development of context-aware applications using the model driven approach. The separation of concerns between context and business logic is achieved. We propose to represent the business logic and the context in two individual and independent models with suitable formalisms. This separation allows the individual computation of each complexity and the reuse of each model
APA, Harvard, Vancouver, ISO, and other styles
26

Yildiz, Onur. "Atelier de conception pour l'évolution des systèmes PLM : une approche d'ingénierie dirigée par les modèles." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI058/document.

Full text
Abstract:
Le déploiement, la maintenance et l'évolution des systèmes d'informations techniques qui accompagnent les processus de création de produits (PLM) constituent des tâches complexes et parfois onéreuses pour des structures de type PME ou micro entreprise innovantes. Si l'appui sur un progiciel développé et maintenu par un éditeur permet aujourd'hui des solutions pérennes, la question de l'évolution conjointe des processus métiers de l'entreprise et du progiciel suite aux évolutions techniques de l'ingénierie numérique pose aux chercheurs la problématique des méthodologies à mettre en œuvre pour faciliter ce double axe d'évolution. Dans le cadre de ses démarches d'innovation, l'éditeur progiciel souhaite rendre accessibles à ses clients PME les capacités fonctionnelles de sa solution PLM en développant un atelier de modélisation pour la création de modèles métier au sein des systèmes PLM et la gestion de leur cohérence au cours du temps. Ce projet, réalisé dans le cadre d'une thèse CIFRE avec la société AUDROS, a pour but de fournir les concepts et les outils qui simplifient la synchronisation des différents outils métiers au sein du système d'information dans le but de gérer l'entreprise de façon la plus étendue et la plus homogène possible
The specification, the deployment, the maintenance and the evolution of technical information systems which support the processes of products developement (PLM) constitute complex tasks for organisations like SME or innovative companies. If today the support on a software package developed and maintained by an editor allows long-lasting solutions, researchers face the issue of the convergent evolutions of the business processes and the software package. As the technical evolutions embedded in digital engineering, this thesis proposes methodologies to be implemented to facilitate this double axis of evolution. Within his innovation framework, the software editor wishes to provide his customers with PLM systems evolution tools.This project, granted as an industrial thesis with AUDROS company, aims at supplying the concepts and the tools which simplify the synchronization of the various business tools within the information system. The company can thus be dynamically supported in a context of extended enterprise
APA, Harvard, Vancouver, ISO, and other styles
27

Baïna, Salah. "Interopérabilité dirigée par les modèles : une Approche Orientée Produit pour l'interopérabilité des systèmes d'entreprise." Nancy 1, 2006. https://tel.archives-ouvertes.fr/tel-00123271.

Full text
Abstract:
L’intégration des systèmes consiste à assembler les différentes parties d’un système tout en assurant la compatibilité de l’assemblage ainsi que le bon fonctionnement du système complet. Dans ce cadre, l’interopérabilité des systèmes est un moyen pour obtenir l’intégration fondée sur un couplage faible des parties du système, basé sur la capacité des parties à des parties à communiquer entre elles pour accéder et faire appel à leur fonctionnalités. Plus récemment, une nouvelle approche d’ingénierie logicielle a été élaborée «l’ingénierie dirigée par les modèles». Dans cette nouvelle approche les modèles occupent une place de premier plan parmi les artefacts d’ingénierie des systèmes. La thèse s’inscrit dans l’intersection de ces deux domaines de recherche. Dans ce contexte, les travaux de la thèse présentent une approche pour l’interopérabilité entre systèmes d’entreprise dite « l’interopérabilité orientée produit »; basée sur les échanges d’informations relatives au produit bien et service entre les différents modèles et représentation de ce produit dans chacun des systèmes. Nous proposons ainsi un meta-modèle dont les instances jouent le rôle de modèles pivot pour la communication entre différentes applications d'entreprise et ceci dans le but d’assurer l'interopérabilité des parties de systèmes concernant le produit. Pour la formalisation de ce meta-modèle, notre approche s'est inspirée sur l’ontologie BWW (Bunge - Wand - Weber) permettant la construction de représentations génériques et complètes des objets du monde réel tels que les perçoivent les systèmes d’information
Systems integration aims at assembling several systems in order to build a unique system working and reacting as a whole. In this context, systems interoperability can be seen as a means to obtain integration based on a light coupling of sub-parts of the system. Recently, a new approach of systems development based on modelling techniques has been founded. This approach is called “Model driven engineering”, in this approach models play a key role in systems engineering and development. This Phd thesis presents a product oriented approach for interoperability to ensure data and schema consistency between all product representations in a production. The aim of product oriented interoperability is, on one hand, to define mechanisms to maintain consistency between this representation and the reality of the product, and on the other hand to make sure that all applications share the image (representation) of the same product. Our result is a model driven approach based on a generic meta-model that defines all concepts used for representing the product. To enable data exchange between different applications, a formalisation of model driven mappings for semantic interoperability has also been proposed. To achieve our goal we focus on the formalisation of a unified product representation inside enterprise information systems. This unified representation has been inspired from the well know BWW ontology (Bunge - Wand - Weber) that is widely used for real world objects representation for information systems design. In this thesis, a reference meta-model has been defined, to enable structured data exchange between different applications
APA, Harvard, Vancouver, ISO, and other styles
28

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
APA, Harvard, Vancouver, ISO, and other styles
29

Guduvan, Alexandru-Robert-Ciprian. "Une approche dirigée par les modèles pour le développement de tests pour systèmes avioniques embarqués." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0012/document.

Full text
Abstract:
Le développement de tests pour les systèmes d’avioniques met en jeu une multiplicité de langages de test propriétaires, sans aucun standard émergent.Les fournisseurs de solutions de test doivent tenir compte des habitudes des différents clients, tandis que les échanges de tests entre les avionneurs et leurs équipementiers / systémiers sont entravés. Nous proposons une approche dirigée par les modèles pour s’attaquer à ces problèmes: des modèles de test sont développés et maintenus à la place du code, avec des transformations modèle-vers-code vers des langages de test cibles. Cette thèse présente trois contributions dans ce sens. La première consiste en l’analyse de quatre langages de test propriétaires actuellement déployés. Elle nous a permis d’identifier les concepts spécifiques au domaine, les meilleures pratiques,ainsi que les pièges à éviter. La deuxième contribution est la définition d’un méta-modèle en EMF Ecore, qui intègre tous les concepts identifiés et leurs relations. Le méta-modèle est la base pour construire des éditeurs de modèles de test et des motifs de génération de code. Notre troisième contribution est un d´démonstrateur de la façon dont ces technologies sont utilisées pour l’élaboration des tests. Il comprend des éditeurs personnalisables graphiques et textuels pour des modèles de test, ainsi que des transformations basées-motifs vers un langage du test exécutable sur une plateforme de test réelle
The development of tests for avionics systems involves a multiplicity of in-house test languages, with no standard emerging. Test solution providers have to accommodate the habits of different clients, while the exchange of tests between aircraft manufacturers and their equipment/system providers is hindered. We propose a model-driven approach to tackle these problems: test models would be developed and maintained in place of code, with model-to-code transformations towards target test languages. This thesis presents three contributions in this direction. The first one consists in the analysis of four proprietary test languages currently deployed. It allowed us to identify the domain-specific concepts, best practices, as well as pitfalls to avoid. The second contribution is the definition of a meta-model in EMF Ecore that integrates all identified concepts and their relations. The meta-model is the basis for building test model editors and code generation templates. Our third contribution is a demonstrator of how these technologies are used for test development. It includes customizable graphical and textual editors for test models, together with template-based transformations towards a test language executable on top of a real test platform
APA, Harvard, Vancouver, ISO, and other styles
30

Mekerke, François. "Structuration de modèles orientés métiers pour les systèmes embarqués : composants de modélisation et métamodélisation exécutable comme support des méthodologies de développement des systèmes embarqués." Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0073.

Full text
Abstract:
Depuis la fin des années 90, avec l'avènement du langage UML, la modélisation des systèmes à logiciel prépondérant s'est développé de manière conséquente. Les capacités mises en avant par cette mouvance sont en effet très intéressantes, avec une formalisation de la sémantique via les métamodèles et une concision de la syntaxe via une représentation graphique. Par ailleurs, la proximité des concepts objet manipulés dans UML avec ceux implantés dans des langages de programmation comme Java ou C# fait de ce langage un excellent facilitateur syntaxique, et permet la génération automatique de code à partir de la représentation graphique d'une structure de données et des interactions auxquelles elles donnent lieu. Au-delà, les techniques de transformation de modèles permettent la manipulation des modèles, pour les passer d'un formalisme à un autre ou les fusionner. Ceci s'insère dans la démarche MDA de construction de modèles d'implantation par fusion de modèles aux préoccupations différentes, orientés business d'un côté, orientés plateforme technologique de l'autre. A chaque mutation technologique, seuls les modèles orientés plateforme sont à reprendre, tandis que les modèles business restent inchangés. Une transformation peut ensuite opérer le basculement du modèle business d'une technologie vers l'autre. Dans le cadre de l'ingénierie système, nous faisons le constat que la complexité inhérente au développement des grands systèmes induit une problématique autre. Le grand nombre d'intervenants, qui gère chacun des problèmes techniques spécifiques, entraîne l'utilisation de nombreux formalismes, dont il faut ensuite pouvoir maîtriser les interactions. Plus que l'établissement de formalismes adaptés, ou de transformations adaptées, c'est l'organisation des relations entre formalismes qui est ici étudiée. Nous montrons que l'espace de modélisation bénéficie d'être découpé en "composants de modélisation" autour des besoins métier. Certains formalismes, liés aux domaines métier ou aux capacités d'analyse, sont privatisés et donc rendus invisibles, tandis que d'autres sont mis en avant aux interfaces, pour permettre aux composants d'interagir. En combinant ce principe de découpage avec les capacités actuels de modélisation, il nous devient possible de structurer et hiérarchiser les échanges entre acteurs du développement. Dans ce cadre, les métamodèles eux-mêmes se voient adjoindre des capacités d'exécutabilité, afin de supporter les aspects méthodologiques qui leur sont propres, et de devenir ainsi des entités organisationnelles de premier plan
The rise of the UML as the de-facto standard language for software-intensive systems has led to interesting evolutions in the whole software industry. Indeed, modeling technologies come with formalized semantics, through metamodels, and associated graphical syntax, allowing for simplified yet rigorous representations. Pragmatically, the concepts manipulated in UML are close to classical object concepts implemented in Java or C# : it is widely used as a syntactical easer for these languages, coupled wit automatic generation tools. Furthermore, model transformation techniques aims at manipulating models, traducing them from a language to an other, or merging them. In the MDA initiative, separate models, corresponding to business on the one side, and implementation platform on the other side, are merged in order to get the global system model. This facilitates the management of implementation technology evolutions, since the business model is clearly identified, and just has to be mapped against the new platform's model. In the system engineering domain, we state that the problematics is different, because the main problem here is not to be able to master a particular technique, but to manage the mass of information exchanged around the system. The vast number of stakeholders, each using its own technique to evaluate its own data, induces a large number of interactions, which have to be managed, i. E. Validated against key characteristics of the system. We show how a structure made of modeling components, allocated to development roles, can help us organize the development. A number of formalisms, those used for specific works, are transferred inside components, and are therefore hidden from the outside, while others are placed on interfaces, in order to specify exchange formats. By combining this organization with present executable metamodeling capabilities, we add process-based services inside components, in order to make first-order, methodology-able entities out of them
APA, Harvard, Vancouver, ISO, and other styles
31

Fall, Ibrahima. "Gestion optimisée de produits-modèles de procédés logiciels." Paris 6, 2012. http://www.theses.fr/2012PA066018.

Full text
Abstract:
Actuellement, la communauté des procédés logiciels ne porte que peu d'attention aux artefacts de ces procédés. Leur gestion est minimale. Or l'introduction des principes de l'ingénierie des modèles dans les procédés logiciels modifie en profondeur la nature de ces artefacts et augmente leur complexité: ils deviennent des modèles (que nous appelons produits-modèles). La prise en compte de cette complexité est alors impérative en vue d'optimiser la gestion de ces produits-modèles. Dans cette thèse, nous posons le problème de la modélisation des relations entre produits-modèles en analysant l'importance de ces relations dans la gestion de l'évolution des produits-modèles lors de l'exécution du procédé qui les utilise et/ou les produit. Ainsi nous illustrons qu’exploiter les modèles de relations à l’exécution du procédé optimise la gestion des produits-modèles en matière de cohérence, de synchronisation ou encore de flexibilité dans la granularité des produits-modèles. Notre contribution est composée de deux éléments majeurs qui sont relatifs à la modélisation puis à l'exécution de procédés. Du point de vue de la modélisation des procédés, nous avons proposé un méta-modèle permettant de structurer les éléments relatifs à la spécification des produits-modèles. Ce méta-modèle contient les concepts nécessaires à la définition des relations entre ces éléments et d'associer à ces relations les caractéristiques nécessaires à une meilleure gestion des produits-modèles à l'exécution des procédés modélisés. Notre approche supporte les relations d'inclusion (Nest) et de partage d'éléments (Overlap) entre deux ou plusieurs produits-modèles d'un procédé en exécution. Du point de vue de l'exécution des procédés, dans le but de structurer les entités logiques à travers lesquelles sont gérés les produits-modèles d'un procédé modélisés avec les concepts du précédent méta-modèle, nous avons proposé un autre méta-modèle. Ce dernier contient les concepts nécessaires à la représentation des objets de procédé correspondants aux produits-modèles ainsi qu'aux relations, en conformité avec le premier méta-modèle. Dans le but d'assurer une correspondance entre les concepts des deux méta-modèles ainsi que de permettre une exploitation automatique des concepts de modélisation à travers ceux d'exécution, la proposition comprend également des règles de transformation entre ces différents concepts. Les apports de notre approche sont relatifs à la gestion des produits-modèles de procédés en exécution. Il s'agit d'une cohérence relationnelle systématique, d'une synchronisation également systématique, d'une construction assistée, d'une flexibilité du point de vue de la granularité, et d'une intégrité ou cohérence sémantique de ces produits-modèles. Nous avons également conçu et réalisé un prototype qui simule un environnement de modélisation et d'exécution de procédés selon notre approche
Currently, software process artefacts are under-considered by the software process modelling and execution community. They are minimally managed. Moreover, the application of the principles of the model driven engineering on software processes have deeply changed the nature and increased the complexity of software artefacts : they become models (model-products hereafter). Taking into account such a complexity is a necessity with a view to optimize model-products management policies. This thesis has focused on the issue of the specification of the relationships between model-products by analysing the importance of the use of those relationships in model-products evolution management during process execution. We therefore have illustrated that using the respective specifications of relationships during process execution optimizes the management of model-products evolution in term of their consistency, their synchronization, and a flexibility in their granularity. Our solution fits in two major points that respectively relate to process modelling and enactment. According to process modelling, we have proposed a meta-model that captures the concepts to use to specify the model-products and the relationships between them. The meta-model takes also into account the details on these relationships as they are useful for an enhancement of used model-products management policies during the execution of the modelled processes. Our approach currently supports the nest and the overlap relationships. According to the process execution point of view, in order to structure the logical entities through which are managed the model-products of a process, we have proposed another meta-model. Such a meta-model therefore specifies process objects that represent model-products and their relationships during process execution. This meta-model also supports the nest and the overlap relationships, in compliance with the first one. The proposition also comprises transformation rules used to map concepts of the two meta-models and therefore to give the possibility of an automatic use of the modelling concepts through the enactment ones. The contributions of the approach are related to model-products management during process enactment. They essentially consist of a systematic synchronization and relational consistency between model-products, their aided creation, a flexibility in the granularity of their use, and their semantic integrity. We finally have prototyped a process modelling and enactment environment that implements our approach
APA, Harvard, Vancouver, ISO, and other styles
32

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'ingénierie dirigée par les modèles." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0151.

Full text
Abstract:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes telle que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basé sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO
Collaborative work involves many teams member which must share and exchange information about the product while working with various business tools. The complex process of product design requires the use of heterogeneous tools such as CAD and CAM too1. Our work of thesis proposes an approach based on the Model Driven Architecture (MDA) for the interoperability of business tools. Ln this work we use the PPO model (Product Process Organization) as a federation mode! for information exchange. This work describes how we structure the synchronization between heterogeneous business tools. A case study is applied to EspritTM CAM tool enabling EspritTM to interoperate with the SolidWorksTM CAD tool throughout the PPO collaborative environment
APA, Harvard, Vancouver, ISO, and other styles
33

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'Ingénierie Dirigée par les Modèles." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00580737.

Full text
Abstract:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes tels que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basée sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO.
APA, Harvard, Vancouver, ISO, and other styles
34

Barbier, Guillaume. "Contribution de l'ingénierie dirigée par les modèles à la conception de modèles grande culture." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00914318.

Full text
Abstract:
Cette thèse, à caractère industriel, vise à répondre à une problématique de production de l'entreprise ITK. Par la mise en oeuvre des techniques de l'ingénierie dirigée par les modèles, nous proposons un environnement de modélisation et de simulation pour la croissance des plantes. Outre sa facilité d'utilisation pour les agronomes, le prototype obtenu permet la génération automatique de code Java des modèles à intégrer dans des outils d'aide à la décision exécutés sur une plateforme Java Enterprise Edition.
APA, Harvard, Vancouver, ISO, and other styles
35

Garcès-Pernett, Kelly Johany. "Une approche pour l'adaptation et l'évaluation de stratégies génériques d'alignement de modèles." Nantes, 2010. http://archive.bu.univ-nantes.fr/pollux/show.action?id=4ca7b93a-5d04-4b14-a05c-9ab85fb51e7f.

Full text
Abstract:
L'alignement de modèles est devenu un sujet d'interêt pour la communaute de l'Ingenierie Dirigee par les Modeles. Le but est d'identifier des correspondances entre les élements de deux metamodeles ou de deux modeles. Un scenario d'application important est la derivation des transformations a partir des correspondances entre metamodeles. De plus, les correspondances entre modeles offrent un grand potentiel pour adresser d'autres besoins. L'etablissement manuel de ces correspondances sur des (meta)modeles de grande taille demande une grande quantite de travail et est source d'erreurs. La communaute travaille donc a automatiser le processus en proposant plusieurs strategies d'alignement formulees comme la combinaison d'un ensemble d'heuristiques. Un premier probleme est alors que ces heuristiques sont limitees a certains formalismes de representation au lieu d'être réutilisables. Un second probleme reside dans la difficulte a evaluer systematiquement la qualite des strategies. Cette these propose une approche pour resoudre les problemes ci-dessus. Cette approche developpe des strategies dont les heuristiques sont faiblement couplees aux formalismes. Elle extrait un jeu de tests d'usage a partir d'un repertoire de modeles et elle utilise finalement un megamodele pour automatiser l'evaluation. Pour valider cette approche, nous developpons le langage dedie AML construit sur la plateforme AmmA. Nous contribuons a la definition d'une bibliotheque d'heuristiques et de strategies AML. Pour montrer que notre approche n'est pas limitee au domaine de l'IDM nous testons celle-ci dans le domaine des ontologies. Finalement, nous proposons trois cas d'etude attestant l'applicabilite des strategies AML dans les domaines de la co-evolution des modeles, de l'evaluation des metamodeles pivots et de la synchronisation des modeles
Model matching is gaining importance in Model-Driven Engineering (MDE). The goal of model matching is to identify correspondences between the elements of two metamodels or two models. One of the main application scenarios is the derivation of model transformations from metamodel correspondences. Model correspondences, in turn, offer a potential to address other MDE needs. Manually finding of correspondences is labor intensive and error-prone when (meta)models are large. To automate the process, research community proposes matching strategies combining multiple heuristics. A problem is that the heuristics are limited to certain representation formalisms instead of being reusable. Another problem is the difficulty to systematically evaluate the quality of matching strategies. This work contributes an approach to deal with the mentioned issues. To promote reusability, the approach consists of strategies whose heuristics are loosely coupled to a given formalism. To systematize model matching evaluation, the approach automatically extracts a large set of modeling test cases from model repositories, and uses megamodels to guide strategy execution. We have validated the approach by developing the AML domain specific language on top of the AmmA platform. By using AML, we have implemented a library of strategies and heuristics. To demonstrate that our approach goes beyond the modeling context, we have tested our strategies on ontology test cases as well. At last, we have contributed three use
APA, Harvard, Vancouver, ISO, and other styles
36

Gandrille, Etienne. "Adaptation autonomique d'applications pervasives dirigée par les architectures." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM078/document.

Full text
Abstract:
La problématique d'adaptation autonomique prend de plus en plus d'importance dans l'administration des applications modernes, notamment pervasives. En effet, la composition entre les différentes ressources de l'application (dispositifs physiques, services et applications tierces) doit souvent être dynamique, et s'adapter automatiquement et rapidement aux évolutions du contexte d'exécution. Pour cela, les composants orientés services offrent un support à l'adaptation au niveau architectural. Cependant, ils ne permettent pas d'exprimer l'ensemble des contraintes de conception qui doivent être garanties lors de l'exécution du système. Pour lever cette limite, cette thèse a modélisé les architectures de conception, de déploiement et de l'exécution. De plus, elle a établi des liens entre celle-ci et proposé des algorithmes afin de vérifier la validité d'une architecture de l'exécution par rapport à son architecture de conception. Cela nous a conduits à considérer de près le cycle de vie des composants et à définir un ensemble de concepts afin de les faire participer à des architectures supportant la variabilité. Notons que cette formalisation peut être exploitée aussi bien par un administrateur humain, que par un gestionnaire autonomique qui voit ainsi sa base de connaissances augmentée et structurée. L'implantation a donné lieu à la réalisation d'une base de connaissance, mise à disposition d'un atelier (Cilia IDE) de conception, déploiement et supervision d'applications dynamiques, ainsi que d'un gestionnaire autonomique capable de modifier la structure d'une application pervasive. Cette thèse a été validée à l'aide d'une application pervasive nommée <<~Actimétrie~>>, développée dans le cadre du projet FUI~MEDICAL
The autonomic adaptation of software application is becoming increasingly important in many domains, including pervasive field. Indeed, the integration fo different application resources (physical devices, services and third party applications) often needs to be dynamic and should adapt rapidly and automatically to changes in the execution context. To that end, service-oriented components offer support for adaptation at the architectural level. However, they do not allow the formalisation of all the design constraints that must be guaranteed during the execution of the system. To overcome this limitation, this thesis modeled the design, deployment and runtime architectures. Also, it proposes to establish links between them and has developed algorithms to check the validity of an execution architecture with respect to its architectural design. This led us to consider the entire life cycle of components and to define a set of concepts to be included in architectures supporting variability. This formalisation can be exploited both by a human administrator and by an autonomic manager that has its knowledge base increased and structured. The implementation resulted in the realization of a knowledge base, providing a studio (Cilia IDE) for the design, deployment and supervision of dynamic applications, as well as an autonomic manager that can update the structure of pervasive applications. This thesis has been validated using a pervasive application called “Actimetry”, developed in the FUI~MEDICAL project
APA, Harvard, Vancouver, ISO, and other styles
37

Joffroy, Cédric. "Composition d'applications et de leurs Interfaces homme-machine dirigée par la composition fonctionnelle." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00609424.

Full text
Abstract:
La réutilisation d'applications n'est pas un problème récent et de nombreux travaux ont étudié différentes façons de réutiliser tout ou partie d'une application. L'apparition des services et des composants au niveau fonctionnel facilite la construction et l'extension d'applications par composition de fonctionnalités indépendantes. En parallèle, des travaux sur les Interfaces Homme-Machine (IHM) proposent des solutions pour créer des IHM par composition d'IHM existantes. Mais ce n'est que récemment que des travaux se sont intéressés à composer l'ensemble d'une application. Malgré cela, ils ne proposent que des compositions simples tant au niveau des IHM que fonctionnel. Ces travaux de thèse proposent une approche pour faciliter le travail du développeur en lui permettant de réutiliser l'intégralité des applications à composer, c'est-à-dire, la partie fonctionnelle, l'IHM et les interactions entre l'IHM et la partie fonctionnelle. La proposition faite dans cette thèse lui permet de continuer d'utiliser les outils industriels dont il dispose pour composer les parties fonctionnelles des applications. Ainsi, c'est au travers de cette composition fonctionnelle ainsi que des interactions entre la partie fonctionnelle et l'IHM présentes dans les applications que se fera l'identification des éléments d'IHM à conserver et la création de l'application résultante. Cette approche repose sur un méta-modèle AliasComponent qui fournit une architecture à base de composants permettant de décrire à la fois les applications (en distinguant la partie fonctionnelle, les IHM et les interactions entre les deux) et la composition fonctionnelle. Ce méta-modèle permet ainsi d'extraire des applications existantes et de la composition fonctionnelle l'ensemble des informations essentielles à la réalisation de la composition des applications. Elle s'appuie aussi sur une formalisation qui permet la réalisation de la composition, c'est-à-dire, la déduction des éléments d'IHM à conserver, la détection de doublons non identiques (lorsque plusieurs widgets différents peuvent convenir), l'aide à la résolution de ceux-ci et la création de l'application résultante de la composition. Cette formalisation pose également les propriétés que doivent respecter les applications et le résultat de la composition assurant ainsi une application résultante fonctionnelle. Le méta-modèle et la formalisation sont intégrés au sein d'un processus d'aide à la composition. La solution proposée a, quant à elle, été mise en oeuvre au sein d'un atelier d'aide à la composition qui a permis de valider l'approche.
APA, Harvard, Vancouver, ISO, and other styles
38

Le, Tallec Jean-François. "Extraction de modèles pour la conception de systèmes sur puce." Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00767040.

Full text
Abstract:
La conception des systèmes sur puce s'appuie souvent sur SystemC/C++ qui permet des descriptions architecturales et comportementales à différents niveaux d'abstraction. D'autres approches se tournent vers l'automatisation de l'assemblage de plates-formes dites virtuelles (format IP-Xact). L'utilisation des techniques de l'ingénierie des modèles est une voie plus récente avec des profils UML tels que MARTE. Dans cette thèse, nous étudions les possibilités de modélisation de ces différentes approches et les passerelles disponibles entre elles. Motivés par la disponibilité de modèles SystemC et opar les facilités offertes par MARTE, nous traitons de l'export des modèles SystemC. Au-delà de la simple conversion entre formats, nous décrivons la mise en œuvre d'une passerelle entre l'implémentation SystemC d'un design et sa version modèle dans le format IP-Xact. La représentation IP-Xact peut ensuite être de nouveau transformée en modèles MARTE par des outils déjà existants. Nous présentons les travaux connexes avant d'exposer notre vision et sa réalisation au travers de l'outil SCiPX (SystemC to IP-Xact). Dans un second temps, nous présentons plus en détail les possibilités permises par le profil UML-MARTE, son modèle de temps et le langage de spécifications de contraintes temporelles CCSL. Nous abordons les problèmes liés à la modélisation de protocoles à différents niveaux d'abstraction et plus spécialement ceux posés par le raffinement entre les niveaux TLM et RTL. Cette étude met en évidence des insuffisances de CCSL concernant la spécification des priorités. Nous proposons un enrichissement de CCSL pour lui permettre de manipuler ce concept de priorité.
APA, Harvard, Vancouver, ISO, and other styles
39

Wouters, Laurent. "Multi-domain expert-user modeling infrastructure." Paris 6, 2013. http://www.theses.fr/2013PA066200.

Full text
Abstract:
Ce travail a été réalisé dans un contexte industriel dans l’entreprise European Aeronautics Defense and Space Company (EADS). EADS recherche donc constamment de nouveaux moyens d’analyser la sécurité du système homme-machine dans sa globalité, c'est-à-dire l’avion, les pilotes et les procédures, comme un tout. Ces analyses de sécurité sont réalisées tout au long du cycle de conception, depuis la conception préliminaire à la conception détaillée et jusqu'à la phase de certification. EADS essaye de réaliser ces analyses beaucoup plus tôt dans le cycle de conception, lorsque seulement des modèles sont disponibles. Une question en suspend est alors comment assurer la collaboration entre les experts de plusieurs domaines (cockpit, procédures, psychologie cognitive) pour qu’ils puissent construite un artefact commun (un modèle) sur lequel ils pourraient s’appuyer pour réaliser les analyses de la sécurité du système homme-machine dans sa globalité. Cette thèse identifie et adresse trois questions. Premièrement, les langages de modélisation dédiés aux domaines doivent être sémantiquement alignés pour que l’artefact commun puisse être exprimé de manière cohérente. Deuxièmement, des notations visuelles spécifiques aux domaines doivent être produites pour le même artefact commun. Troisièmement, l’activité de modélisation des experts doit être supportée au mieux et pour cela les notations visuelles des langages de modélisation doivent être le plus proche possible des pratiques courantes dans les domaines respectifs. Cette thèse propose l’Infrastructure xOWL comme une solution intégrée à ces trois questions
This work has been realized in an industrial context at the European Aeronautics Defense and Space Company (EADS). EADS is researching new ways to assess the safety of the overall human-machine system, i. E. , the aircraft, pilots and operating procedures as a whole. These safety assessments are conducted throughout the design cycle of the product, from the preliminary design to the detailed design and up to the certification phase. EADS is trying to perform these thorough safety assessments much earlier in the development cycle, when only models are available, thus, phasing-in a model-driven approach of the problem. An issue is then how to enable the collaboration of experts from multiple domains (cockpit, procedures, and cognitive psychology) for them to build a common model artifact that can be leveraged in the safety assessment of the overallhuman-machine system. This work considers that experts in each domain must be provided a domain-specific modeling environment, giving them access to a common model artifact, but through a domain-specific notation. This thesis identifies and considers three issues in this regard. First, the domain-specific modeling languages need to be semantically aligned so that the common model artifact can be consistently expressed. Second, multiple domain-specific visual notations need to be produced for the same underlying common model artifact. Third, domain experts modeling activities need to be supported at best and thus the provided domain-specific notations need to be as close as possible to the existing practices in the domains. This thesis then proposes the xOWL Infrastructure as an integrated solution to the three issues
APA, Harvard, Vancouver, ISO, and other styles
40

Acher, Mathieu. "Managing, multiple feature models : foundations, languages and applications." Nice, 2011. http://www.theses.fr/2011NICE4052.

Full text
Abstract:
L’ingénierie des lignes de produits logiciels (LdPs) est un paradigme pour la modélisation et le développement de familles de systèmes logiciels plutôt que de systèmes logiciels individuels. Son objectif porte sur les moyens de produire et maintenir efficacement des produits logiciels similaires en exploitant ce qu’ils ont en commun et en gérant ce qui varie entre eux. Par analogie, la pratique dans l’industrie automobile est de construire une ligne de production dans laquelle des variations personnalisées mais tout de même similaires de modèles de voitures sont produits. Les feature models (FMs) sont une représentation fondamentale pour spécifier et raisonner sur la commonalité et la variabilité des LdPs en termes de features (caractéristiques). Les FMs deviennent de plus en plus complexes, manipulés par plusieurs développeurs ou organisations, utilisés pour décrire des features à divers niveaux d’abstraction et qui sont mises en relation de différentes façons. Maintenir un seul gros FM n’est ni réaliste ni souhaitable. Au contraire une tendance forte est de considérer de multiples FMs. Dans cette thèse, nous développons les fondations théoriques et un support pratique pour gérer de multiples FMs. Nous concevons et développons un ensemble d’opérateurs de composition et de décomposition (aggregate, merge, slice) pour supporter la séparation des préoccupations. Les opérateurs sont formellement définis et implémentés avec un algorithme qui garantit des propriétés sémantiques. Nous montrons comment les opérateurs de composition et de décomposition peuvent être combinés ensemble ou avec d’autres opérateurs d’édition ou de raisonnement pour réaliser des taches complexes. Nous proposons un langage textuel, FAMILIAR (pour FeAture Model scrIpt Language for manIpulation and Automatic Reasoning), qui fournit une solution opérationnelle à la gestion de multiples FMs à large échelle. Un utilisateur des FMs peut combiner les différents opérateurs et manipuler un ensemble restreint de concepts (FMs, features, configurations, etc. ) en utilisant une notation concise et des facilités linguistiques. FAMILIAR cache les détails d’implémentations (e. G. , solveurs) et est supporté par un environnement de développement complet. Nous décrivons plusieurs applications de ces opérateurs et utilisations de FAMILIAR dans différents domaines (messagerie médicale, vidéo protection) et pour différents objectifs (conception de workflows scientifiques, modélisation de la variabilité des exigences à l’exécution, rétro ingénierie), démontrant l’applicabilité à la fois des opérateurs et du langage de support. Sans les nouvelles capacités fournies par les opérateurs et FAMILIAR, certaines opérations d’analyse et de raisonnement n’auraient pas été possibles dans les différents cas d’études. Pour conclure, nous discutons les différentes perspectives de recherche à moyen terme (opérateurs, langage, éléments de validation) et à long terme (e. G. Relations entre les FMs et les autres modèles)
Software product Line (SPL) engineering is a paradigm shift towards modeling and developing software system families rather than individual systems. It focuses on the means of efficiently producing and maintaining multiple similar software products, exploiting what they have in common and managing what varies among them. Feature models (FMs) are a fundamental formalism for specifying and reasoning about commonality and variability of SPLs. FMs are becoming increasingly complex, handled by several stakeholders or organizations, used to describe features at various levels of abstraction and related in a variety of ways. Maintaining a single large FM is neither feasible nor desirable. Instead, multiple FMs are now used. In this thesis, we develop theoretical foundations and practical support for managing multiple FMs. We design and develop a set of composition and decomposition operators (aggregate, merge, slice) for supporting separation of concerns. The operators are formally defined, implemented with a fully automated algorithm and guarantee semantics properties. We show how the composition and decomposition operators can be combined together or with other reasoning and editing operators to realize complex tasks. We propose a textual language, FAMILIAR, which provides a practical solution for managing FMs on a large scale. We report various applications of the operators and usages of FAMILIAR in different domains (medical imaging, video surveillance) and for different purposes (scientific workflow design, variability modeling from requirements to runtime, reverse engineering), showing the applicability of both the operators and the supporting language
APA, Harvard, Vancouver, ISO, and other styles
41

Mamoghli, Sarra. "Alignement des systèmes d’information à base de progiciel, vers une ingénierie dirigée par les modèles centrée identification des risques." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAD003/document.

Full text
Abstract:
Dans le contexte actuel de compétition exacerbée, les Systèmes d’Information des Petites et Moyennes Entreprises se basent de plus en plus sur des progiciels tels que les ERP - Enterprise Resource Planning. Compte tenu de l’aspect standard de ceux-ci, il est nécessaire de gérer l’alignement entre les besoins réels de l’entreprise et les fonctionnalités standards de l’ERP. Pour ce faire, nous le considérons sous l’angle des risques en définissant le Risque de Non-Alignement (RNA). Sur la base d’un état de l’art du management des risques dans les projets, nous proposons de le traiter selon deux stratégies complémentaires d’optimisation anticipatives : l’une agissant sur son effet et l’autre, sur son occurrence. Notre état de l’art des méthodes d’ingénierie dirigée par les modèles, moyen pour mettre en oeuvre la première stratégie, montre que les processus d’alignement permettant d’identifier le nonalignement, d’évaluer son effet et d’y pallier restent trop macroscopiques pour traiter réellement le RNA. Notre état de l’art sur le management des facteurs de risque, moyen pour mettre en oeuvre la seconde stratégie, met en avant des lacunes au niveau des outils permettant d’identifier et traiter les facteurs agissant sur le RNA. Pour répondre à notre problématique, nous proposons, d’abord, la méthode « Model Driven - ERP Alignment » permettant de (1) guider finement l’identification du non-alignement sur la base de la norme de modélisation d’entreprise ISO 19440 ; (2) d’évaluer son effet et (3) d’y associer les décisions adéquates. Elle prend également en compte le niveau de granularité des activités ainsi que leurs interdépendances. Nous proposons également l’approche « Risk-Factor Driven - ERP Alignment ». Elle consiste en une démarche d’identification et de traitement des facteurs de risque (FR) sur la base des outils suivants : variables des FR, matrice des liens résiduels entre FR, classification des FR en fonction du cycle de vie du projet ERP et matrice FR / pratiques de gestion. Ce travail étant co-financé par la Région Alsace et une PME de la Région Strasbourgeoise, nous avons adopté une démarche de recherche / action qui a, entre autres, permis d’appliquer et valider nos contributions
In the current context of fierce competition, the Information Systems of SME are increasingly based on “off-theshelf” products like the ERP - Enterprise Resource Planning - systems. As this kind of system offers a generic solution, the alignment between the company’s real needs and the ERP standard functionalities must be ensured. Therefore, we propose to define the so called Misalignment Risk (MR). Our literature review on project risk management leads us to propose two complementary strategies to manage the MR allowing its optimization: the first one works on the effect of the MR and the second one, on its occurrence. Our analysis of the model driven engineering methods, allowing the implementation of the first strategy, shows that: the alignment processes proposed to identify the misalignment, to evaluate its effect and to mitigate it are too macroscopic. Concerning the means to implement the second strategy, we highlight the weaknesses of the tools proposed to support the identification and treatment of the risk factors influencing the MR. We thus propose, firstly the “Model Driven -ERP Alignment” method allowing (i) the identification of the alignment and misalignment situations in a detailedmanner and on the basis of the ISO 19440 norm, (ii) the evaluation of its effect and (iii) its association to adequate decisions. The granularity level and the interdependencies of the processes’ activities are also taken into account. Secondly we propose the “Risk-Factor Driven - ERP Alignment” approach. It consists in the proposition of a process allowing the identification and treatment of risk factors (RF) influencing the MR. to succeed in following tools are set up: RF variables, RF residual link matrix, RF life cycle classification and RF / management practices matrix. As this work is supported by both the Region Alsace and a SME located near Strasbourg, we follow an action / research approach. It allowed us to apply and validate our contributions
APA, Harvard, Vancouver, ISO, and other styles
42

Mamoghli, Sarra. "Alignement des systèmes d'information à base de progiciel, vers une ingénierie dirigée par les modèles centrée identification des risques." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00814495.

Full text
Abstract:
Dans le contexte actuel de compétition exacerbée, les Systèmes d'Information des Petites et Moyennes Entreprises se basent de plus en plus sur des progiciels tels que les ERP - Enterprise Resource Planning. Compte tenu de l'aspect standard de ceux-ci, il est nécessaire de gérer l'alignement entre les besoins réels de l'entreprise et les fonctionnalités standards de l'ERP. Pour ce faire, nous le considérons sous l'angle des risques en définissant le Risque de Non-Alignement (RNA). Sur la base d'un état de l'art du management des risques dans les projets, nous proposons de le traiter selon deux stratégies complémentaires d'optimisation anticipatives : l'une agissant sur son effet et l'autre, sur son occurrence. Notre état de l'art des méthodes d'ingénierie dirigée par les modèles, moyen pour mettre en oeuvre la première stratégie, montre que les processus d'alignement permettant d'identifier le nonalignement, d'évaluer son effet et d'y pallier restent trop macroscopiques pour traiter réellement le RNA. Notre état de l'art sur le management des facteurs de risque, moyen pour mettre en oeuvre la seconde stratégie, met en avant des lacunes au niveau des outils permettant d'identifier et traiter les facteurs agissant sur le RNA. Pour répondre à notre problématique, nous proposons, d'abord, la méthode " Model Driven - ERP Alignment " permettant de (1) guider finement l'identification du non-alignement sur la base de la norme de modélisation d'entreprise ISO 19440 ; (2) d'évaluer son effet et (3) d'y associer les décisions adéquates. Elle prend également en compte le niveau de granularité des activités ainsi que leurs interdépendances. Nous proposons également l'approche " Risk-Factor Driven - ERP Alignment ". Elle consiste en une démarche d'identification et de traitement des facteurs de risque (FR) sur la base des outils suivants : variables des FR, matrice des liens résiduels entre FR, classification des FR en fonction du cycle de vie du projet ERP et matrice FR / pratiques de gestion. Ce travail étant co-financé par la Région Alsace et une PME de la Région Strasbourgeoise, nous avons adopté une démarche de recherche / action qui a, entre autres, permis d'appliquer et valider nos contributions.
APA, Harvard, Vancouver, ISO, and other styles
43

Clavreul, Mickaël. "Composition de modèles et de métamodèles : séparation des correspondances et desinterprétations pour unifier les approches de composition existantes." Rennes 1, 2011. https://tel.archives-ouvertes.fr/tel-00646893.

Full text
Abstract:
Model-Driven Engineering (MDE) is a software development methodology that relies on the Separation ofConcerns (SoC) and Abstraction principles to deal with complexity. Thinking in terms of higher levels ofabstraction and building dedicated models to address specific concerns allow decomposing a problem intomore manageable subproblems. Within the framework of MDE, model composition is an active field of research that focuses onautomating the composition of model-based artifacts in a multi-modeling environment. However the lackof a common formalism for comparing existing approaches hinders their adaptation and reuse for buildingnew model composition techniques. The main contribution of this thesis is to propose a novel definition of model composition as a pair of amapping and an interpretation. This definition paves the way to a theoretical framework that (1) unifiesexisting representations of model composition techniques and (2) automates the process of building modelcomposition tools. The main contribution is supported by two subsidiaries propositions:- We propose categories to classify existing mapping techniques and existing modelcomposition interpretations. - We define a language that supports the definition of generic mappings among models andthe definition of interpretations. We validate the contribution through two experiments: (1) a systematic literature review validates theproposed categories for mappings and interpretations; (2) a prototype that supports the model compositionapproach has been tested on an industrial case study from Technicolor about the composition of legacyAPIs for the management of heterogeneous video and broadcasting equipments
L'Ingénierie Dirigée par les Modèles (IDM) est basée sur le principe d’abstraction et de séparation despréoccupations pour gérer la complexité du développement de logiciels. Les ingénieurs s’appuient sur desmodèles dédiées à la résolution d’un problème particulier. Dans le cadre de l’IDM, la composition de modèles est un domaine de recherche très actif qui vise àautomatiser les tâches de recomposition des modèles. La quasi-inexistence de consensus pour comparer lestechniques existantes entraîne une explosion de l’effort nécessaire pour produire de nouveaux outilsspécifiques à partir de techniques existantes. La contribution principale de cette thèse est de proposer une définition originale de la composition demodèles comme étant une paire correspondance-interprétation. A partir de cette définition, nousproposons un cadre théorique qui (1) unifie les représentations des techniques de composition existanteset qui (2) automatise le développement d’outils de composition de modèles. La contribution principale s'appuie sur deux sous-contributions supplémentaires :- Nous proposons des catégories pour classer les techniques de correspondance et lesinterprétations existantes. - Nous proposons un langage de modélisation spécifique pour la définition decorrespondances génériques entre modèles et la définition d’interprétations. Un prototype logiciel a été développé et utilisé dans le cadre du projet MOPCOM-I du pôle decompétitivité Images & Réseaux de la région Bretagne. La validation de la contribution a été démontréesur un cas d’étude proposé par Technicolor pour l’intégration de librairies existantes dédiées à la gestiond’équipements numériques de diffusion vidéo
APA, Harvard, Vancouver, ISO, and other styles
44

Le, Calvar Théo. "Exploration d’ensembles de modèles." Thesis, Angers, 2019. http://www.theses.fr/2019ANGE0035.

Full text
Abstract:
La transformation de modèles a prouvé qu’elle était un moyen efficace pour produire des modèles cibles à partir de modèles sources le tout en raisonnant en terme de métamodèle. La majorité des techniques de transformation de modèles se concentrent sur la génération d’un modèle cible pour une source donnée. Cependant, il existe des situations dans lesquelles il est préférable de considérer une transformation générant un ensemble de modèles cibles. Un tel ensemble pourra ensuite être exploré par l’utilisateur afin de sélectionner un modèle ayant des propriétés spécifiques. Dans ce manuscrit, nous proposons une solution alliant transformation de modèles et programmation par contraintes pour permettre l’expression et l’exploration de ces ensembles de modèles. Nous proposons deux implémentations fonctionnelles de cette approche ainsi que plusieurs cas d’étude créés avec ces deux implémentations
Model transformation has proven to be an effective technique to produce target models from source models. Most transformation approaches focus on generating a single target model from a given source model. However there are situations where a collection of possible target models is preferred over a single one. Such situations arise when some choices cannot be encoded in the transformation. Then, search techniques can be used to help select a target model having specific properties. In this thesis, we present an approach combining model transformation with constraint solving to generate and explore these model sets. Moreover, we present two implementations of this approach along with multiple case studies showcasing these implementations and there usefulness
APA, Harvard, Vancouver, ISO, and other styles
45

Matoussi, Abderrahman. "Construction de spécifications formelles abstraites dirigée par les buts." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1036/document.

Full text
Abstract:
Avec la plupart des méthodes formelles, un premier modèle peut être raffiné formellement en plusieurs étapes, jusqu'à ce que le raffinement final contienne assez de détails pour une implémentation. Ce premier modèle est généralement construit à partir de la description des besoins obtenue dans la phase d'analyse des exigences. Cette transition de la phase des exigences à la phase de spécification formelle est l'une des étapes les plus délicates dans la chaîne de développement formel. En fait, la construction de ce modèle initial exige un niveau élevé de compétence et beaucoup de pratique, d'autant qu'il n'existe pas de processus bien défini pour aider les concepteurs. Parallèlement à ce problème, il s'avère également que les exigences non-fonctionnelles sont largement marginalisées dans le processus de développement logiciel. Les pratiques industrielles actuelles consistent généralement à spécifier seulement les exigences fonctionnelles durant les premières phases de ce processus et à laisser la prise en compte des exigences non-fonctionnelles au niveau de l'implémentation. Pour surmonter ces problèmes, la thèse vise à définir un couplage entre un modèle d'exigences exprimé en SysML/KAOS et des spécifications formelles abstraites, tout en garantissant une distinction entre les exigences fonctionnelles et non-fonctionnelles dès la phase d'analyse des exigences. Pour cela, la thèse propose tout d'abord deux approches différentes (l'une dédiée au B classique et l'autre à Event-B) dans lesquelles des modèles formels abstraits sont construits progressivement à partir du modèle de buts fonctionnels SysML/KAOS. La thèse se focalise par la suite sur l'approche dédiée à Event-B afin de la compléter et l'enrichir en se servant de deux autres modèles SysML/KAOS qui décrivent les buts non-fonctionnels et leurs impacts sur les buts fonctionnels. Nous présentons différentes manières permettant d'injecter ces buts non-fonctionnels et leurs impacts dans les modèles abstraits Event-B déjà obtenus. Des liens de correspondance entre les buts non-fonctionnels et les différents éléments Event-B sont également établis afin de faciliter la gestion de l'évolution de ces buts. Les différentes approches proposées dans cette thèse ont été appliquées pour la spécification du composant de localisation qui est une partie critique d'un système de transport terrestre. L'approche dédiée à Event-B est implémentée dans l'outil SysKAOS2EventB, permettant ainsi de générer une architecture de raffinement Event-B à partir d'un modèle de buts fonctionnels SysML/KAOS. Cette mise en œuvre s'appuie principalement sur les technologies de transformation de modèles à modèles
With most of formal methods, an initial formal model can be refined in multiple steps, until the final refinement contains enough details for an implementation. Most of the time, this initial model is built from the description obtained by the requirements analysis. Unfortunately, this transition from the requirements phase to the formal specification phase is one of the most painful steps in the formal development chain. In fact, building this initial model requires a high level of competence and a lot of practice, especially as there is no well-defined process to assist designers. Parallel to this problem, it appears that non-functional requirements are largely marginalized in the software development process. The current industrial practices consist generally in specifying only functional requirements during the first levels of this process and in leaving the consideration of non-functional requirements in the implementation level. To overcome these problems, this thesis aims to define a coupling between a requirement model expressed in SysML/KAOS and an abstract formal specification, while ensuring a distinction between functional and non-functional requirements from the requirements analysis phase. For that purpose, this thesis proposes firstly two different approaches (one dedicated to the classical B and the other to Event-B) in which abstract formal models are built incrementally from the SysML/KAOS functional goal model. Afterwards, the thesis focuses on the approach dedicated to Event-B in order to complete it and enrich it by using the two other SysML/KAOS models describing the non-functional goals and their impact on functional goals. We present different ways to inject these non-functional goals and their impact into the obtained abstract Event-B models. Links of correspondance between the non-functional goals and the different Event-B elements are also defined in order to improve the management of the evolution of these goals. The different approaches proposed in this thesis have been applied to the specification of a localization component which is a critical part of a land transportation system. The approach dedicated to Event-B is implemented in the SysKAOS2EventB tool, allowing hence the generation of an Event-B refinement architecture from a SysML/KAOS functional goal model. This implementation is mainly based on the model-to-model transformation technologies
APA, Harvard, Vancouver, ISO, and other styles
46

Matoussi, Abderrahman, and Abderrahman Matoussi. "Construction de spécifications formelles abstraites dirigée par les buts." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00680736.

Full text
Abstract:
Avec la plupart des méthodes formelles, un premier modèle peut être raffiné formellement en plusieurs étapes, jusqu'à ce que le raffinement final contienne assez de détails pour une implémentation. Ce premier modèle est généralement construit à partir de la description des besoins obtenue dans la phase d'analyse des exigences. Cette transition de la phase des exigences à la phase de spécification formelle est l'une des étapes les plus délicates dans la chaîne de développement formel. En fait, la construction de ce modèle initial exige un niveau élevé de compétence et beaucoup de pratique, d'autant qu'il n'existe pas de processus bien défini pour aider les concepteurs. Parallèlement à ce problème, il s'avère également que les exigences non-fonctionnelles sont largement marginalisées dans le processus de développement logiciel. Les pratiques industrielles actuelles consistent généralement à spécifier seulement les exigences fonctionnelles durant les premières phases de ce processus et à laisser la prise en compte des exigences non-fonctionnelles au niveau de l'implémentation. Pour surmonter ces problèmes, la thèse vise à définir un couplage entre un modèle d'exigences exprimé en SysML/KAOS et des spécifications formelles abstraites, tout en garantissant une distinction entre les exigences fonctionnelles et non-fonctionnelles dès la phase d'analyse des exigences. Pour cela, la thèse propose tout d'abord deux approches différentes (l'une dédiée au B classique et l'autre à Event-B) dans lesquelles des modèles formels abstraits sont construits progressivement à partir du modèle de buts fonctionnels SysML/KAOS. La thèse se focalise par la suite sur l'approche dédiée à Event-B afin de la compléter et l'enrichir en se servant de deux autres modèles SysML/KAOS qui décrivent les buts non-fonctionnels et leurs impacts sur les buts fonctionnels. Nous présentons différentes manières permettant d'injecter ces buts non-fonctionnels et leurs impacts dans les modèles abstraits Event-B déjà obtenus. Des liens de correspondance entre les buts non-fonctionnels et les différents éléments Event-B sont également établis afin de faciliter la gestion de l'évolution de ces buts. Les différentes approches proposées dans cette thèse ont été appliquées pour la spécification du composant de localisation qui est une partie critique d'un système de transport terrestre. L'approche dédiée à Event-B est implémentée dans l'outil SysKAOS2EventB, permettant ainsi de générer une architecture de raffinement Event-B à partir d'un modèle de buts fonctionnels SysML/KAOS. Cette mise en œuvre s'appuie principalement sur les technologies de transformation de modèles à modèles
APA, Harvard, Vancouver, ISO, and other styles
47

Rahmoun, Smail. "Optimisation multi-objectifs d'architectures par composition de transformation de modèles." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0004.

Full text
Abstract:
Nous proposons dans cette thèse une nouvelle approche pour l'exploration d’espaces de conception. Plus précisément, nous utilisons la composition de transformations de modèles pour automatiser la production d'alternatives architecturales, et les algorithmes génétiques pour explorer et identifier des alternatives architecturales quasi-optimales. Les transformations de modèles sont des solutions réutilisables et peuvent être intégrées dans des algorithmes génétiques et ainsi être combinées avec des opérateurs génétiques tels que la mutation et le croisement. Grâce à cela, nous pouvons utiliser (ou réutiliser) différentes transformations de modèles implémentant différents patrons de conception sans pour autant modifier l’environnement d’optimisation. En plus de cela, les transformations de modèles peuvent être validées (par rapport aux contraintes structurelles) en amont et ainsi rejeter avant l’exploration les transformations générant des alternatives architecturales incorrectes. Enfin, les transformations de modèles peuvent être chainées entre elles afin de faciliter leur maintenance, leur réutilisabilité et ainsi concevoir des modèles plus détaillés et plus complexes se rapprochant des systèmes industrielles. A noter que l’exploration de chaines de transformations de modèles a été intégrée dans l’environnement d’optimisation
In this thesis, we propose a new exploration approach to tackle design space exploration problems involving multiple conflicting non functional properties. More precisely, we propose the use of model transformation compositions to automate the production of architectural alternatives, and multiple-objective evolutionary algorithms to identify near-optimal architectural alternatives. Model transformations alternatives are mapped into evolutionary algorithms and combined with genetic operators such as mutation and crossover. Taking advantage of this contribution, we can (re)-use different model transformations, and thus solve different multiple-objective optimization problems. In addition to that, model transformations can be chained together in order to ease their maintainability and re-usability, and thus conceive more detailed and complex systems
APA, Harvard, Vancouver, ISO, and other styles
48

Jevardat, de Fombelle Gregory. "Gestion incrémentale des propriétés de cohérence structurelle dans l'ingénierie dirigée par les modèles." Paris 6, 2007. http://www.theses.fr/2007PA066606.

Full text
Abstract:
L'ingénierie dirigée par les modèles se caractérise par l'utilisation de multiples modèles comme supports productifs à l'ingénierie des systèmes complexes. Dans ce cadre, les modèles doivent respecter un certain nombre de contraintes appelées règles de cohérence. Il est alors nécessaire de fournir des langages, des techniques et des outils pour exprimer ces règles, détecter d'éventuelles incohérences et fournir des mécanismes pour les traiter. Si de nombreuses approches ont été proposées, elles ne répondent que partiellement à ce problème lorsque les modèles sont soumis à des modifications: quelles règles doit on re-vérifier, sur quelles parties des modèles ? Dans cette thèse, nous proposons une approche pour la gestion incrémentale des propriétés de cohérence structurelle dans l'ingénierie dirigée par les modèles. Nous donnons une définition mathématique de la structure des modèles, des métamodèles et de leurs constructions. Ensuite, nous fournissons un langage d'expression de contraintes structurelles sur ces modèles. Enfin, nous montrons comment détecter de façon incrémenale des incohérences, non pas sur les modèles mais à partir d'une séquence de modifications des modèles, permettant de ne vérifier qu'une partie des règles de cohérence sur une partie des modèles à chaque modification
APA, Harvard, Vancouver, ISO, and other styles
49

Lévêque, Thomas. "Définition et contrôle des politiques d’évolution dans les projets logiciels." Grenoble, 2010. http://www.theses.fr/2010GRENM030.

Full text
Abstract:
L'Ingénierie Dirigée par les Modèles (IDM) vise à maitriser la complexité des logiciels en réalisant l'ensemble des activités d'ingénierie sur des modèles du système. A part quelques niches, l'IDM n'est pas encore adoptée par les grands producteurs de logiciels. Nous pensons que l'une des raisons est qu'un logiciel est constitué de modèles et de programmes développés tous deux manuellement. Le développement comme la maintenance font évoluer à la fois modèles et programmes ; il faut versionner modèles et programmes. Les équipes travaillant en parallèle il faut réconcilier les évolutions concurrentes, et surtout contrôler l'ingénierie coopérative. Or nous ne disposons pas aujourd'hui des concepts, mécanismes, e outils permettant de résoudre ces problèmes : nous ne savons pas gérer correctement l'évolution des logiciels en IDM. Cette thèse propose des concepts et des mécanismes permettant de gérer la coévolution des modèles et du code des logiciels à développer dans un domaine particulier, en utilisant un environnement dédié : un CADSE (Computer Aided Domain Specific Engineering environment). Nous proposons de décrire les politiques d'évolution des logiciels au niveau du méta-modèle du CADSE associé. Cette politique garantit la cohérence des versions et des compositions dans chaque espace de travail par une synchronisation dans les deux sens entre le modèle (conforme au méta-modèle du CADSE) et le code. Cette politique définit, garantit et contrôle également la cohérence du travail coopératif entre espaces de travails concurrents
Model Driven Engineering (MDE) aims at mastering software product complexity undertaking "all" software engineering activities on models. Except some specific domains such as critical systems, MDE is not yet widely adopted by large software manufacturers. We claim that one raison is that, in practice, in MDE software projects, an application is a mixture of models and code which are both developed manually. Development and maintenance activities modify at same time models and software; consistent versionning of models and code is needed. Software engineers are working in parallel: therefore, reconciling concurrent modifications and controlling cooperative engineering are needed. Unfortunately, the concepts, mechanisms and tools to solve these issues do not really exist today: we cannot manage conveniently software evolution for large MDE software projects. This thesis proposes concepts and mechanisms needed to manage the coevolution of models and code in a specific domain, using a dedicated engineering environment: a CADSE (Computer Aided Domain Specific Engineering environment). We propose to formally define evolution policies it the CADSE at meta model level. A policy enforces version consistency and evolution ripple effects in each workspace, through a bi-directional synchronization between model elements and files. A policy also defines and enforces the cooperative work strategy between concurrent workspaces
APA, Harvard, Vancouver, ISO, and other styles
50

Nodenot, Thierry. "Contribution à l'ingénierie dirigée par les modèles en EIAH : le cas des situations-problèmes coopératives." Habilitation à diriger des recherches, Université de Pau et des Pays de l'Adour, 2005. http://tel.archives-ouvertes.fr/tel-00160740.

Full text
Abstract:
Fortement marqués par les avancées en Génie Logiciel, les travaux présentés dans ce mémoire ont pour objectif de proposer un langage permettant de produire des modèles acceptables d'un EIAH c'est-à-dire dire des modèles dont il est possible d'évaluer la pertinence. Ceci signifie que les modèles sont explicites, non ambigus et qu'ils rendent possible des échanges entre les acteurs de la conception pour faire évoluer des modèles d'un état inaccepté à un état accepté. L'idée est donc de capitaliser sur la base des modèles de conception plutôt que sur le code des EIAH produits. L'explicitation des modèles de conception (théories d'apprentissage sur lesquelles s'appuie l'EIAH à construire, scénarios d'apprentissage et principes d'interaction) doit permettre de mieux partager les expertises au sein des équipes de développement et donc de diffuser les savoirs et bonnes pratiques. Par ailleurs, il s'agit d'examiner les conditions de transformations des modèles de conception en modèles computationnels afin de pouvoir réutiliser / transformer ces modèles vers des modèles exploitables par des plates-formes de formation à distance et faciliter ainsi le travail de mise en œuvre.

Dans ce document, je positionne tout d'abord les travaux proposés au sein de la communauté EIAH (chapitre 1) ce qui me permet d'expliciter les théories d'apprentissage auxquelles ces travaux se réfèrent ainsi que les principaux verrous scientifiques posés par l'ingénierie des EIAH. Le chapitre 2 présente ma démarche de recherche au cours de ces travaux ainsi que les questions de recherche spécifiques qui sont au cœur des activités menées. Ce chapitre me permet donc de positionner mes travaux par rapport à ceux que mènent d'autres équipes nationales et internationales sur des problématiques identiques. Je présente ensuite (chapitre 3) les principaux résultats qui portent sur l'ingénierie de modèles de conception pour les situations d'apprentissage de type situations-problèmes coopératives, mais aussi sur l'usage de ces modèles et la démarche de conception qu'ils supposent. Les travaux qui se sont succédés ont permis de définir et d'expérimenter différents langages visuels, ce qui nous a conduit à proposer un profil UML dédié à la description des situations problèmes coopératives, le langage CPM. Le chapitre 4 me permet enfin de dresser un bilan de mon activité d'enseignant chercheur à l'Université de Pau et des Pays de l'Adour.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography