Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Ingénierie dirigée par les modèles (MDE).

Rozprawy doktorskie na temat „Ingénierie dirigée par les modèles (MDE)”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Ingénierie dirigée par les modèles (MDE)”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Kifouche, Abdenour. "Ingénierie dirigée par les modèles pour la conception et la mise en œuvre des réseaux de capteurs". Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2028/document.

Pełny tekst źródła
Streszczenie:
Le cycle de vie d'un réseau de capteurs implique plusieurs étapes, telles que le dimensionnement du réseau, le développement de logiciels embarqués, la réalisation de matériels, des analyses et des simulations, le déploiement physique, l'exploitation des données et la maintenance du réseau. Tout au long de ce cycle, plusieurs outils spécifiques sont utilisés. Il est donc nécessaire de décrire manuellement les caractéristiques du réseau de capteurs dans chacun de ces outils en utilisant leurs propres langages. Il en résulte des coûts de développement importants et éventuellement des incohérences entre les différentes descriptions. Pour répondre à cette problématique, nous proposons une méthodologie basée sur l'approche MDE (Model Driven Engineering). Elle vise à couvrir toutes les étapes du cycle de vie d'un réseau de capteurs. Tous les concepts et les caractéristiques d'un réseau de capteurs sont décrits à l'aide d'un métamodèle. A partir de ce référentiel, il est possible d'extraire, à chaque étape du cycle de vie, une ou plusieurs facettes. Chaque facette est présentée et éditée avec l'outil le plus adéquat en créant des passerelles vers des outils tiers. Afin de mettre en œuvre la méthodologie proposée, un Framework est développé pour offrir un environnement de description multi-facettes : architecture réseau, architecture matérielle, architecture logicielle, flux de données et environnement physique. Un exemple de passerelle entre le Framework et un simulateur existant (Omnet++) a été développé pour estimer les performances des réseaux de capteurs. Le Framework permet la génération automatique des scripts de simulation ainsi que des codes sources pour les nœuds du réseau
The life cycle of a sensor network involves several steps, including network sizing, embedded software development, hardware design, analysis and simulation, physical deployment, data exploitation, and network maintenance. Throughout this cycle, several specific tools are used. It is therefore necessary to manually describe the characteristics of the sensor network in each of these tools using their own languages. This results in significant development costs and potential inconsistencies between the different descriptions. To address this problem, we propose a methodology based on model driven engineering approach. It aims to cover all life cycle steps of a sensor network. All concepts and characteristics of a sensor network are described using a metamodel. From this referential, it is possible to extract, at each step of the life cycle, one or more facets. Each facet is presented and edited with the most appropriate tool by creating gateways to external tools.In order to implement the proposed methodology, a Framework is developed to provide a multi-facets environment: network architecture, hardware architecture, software architecture, data flow and physical environment. An example of a gateway between the Framework and an existing simulator (Omnet++) has been developed to estimate sensor network performances. The Framework allows automatic generation of simulation scripts as well as source codes for network nodes
Style APA, Harvard, Vancouver, ISO itp.
2

Rahmoun, Smail. "Optimisation multi-objectifs d'architectures par composition de transformation de modèles". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0004.

Pełny tekst źródła
Streszczenie:
Nous proposons dans cette thèse une nouvelle approche pour l'exploration d’espaces de conception. Plus précisément, nous utilisons la composition de transformations de modèles pour automatiser la production d'alternatives architecturales, et les algorithmes génétiques pour explorer et identifier des alternatives architecturales quasi-optimales. Les transformations de modèles sont des solutions réutilisables et peuvent être intégrées dans des algorithmes génétiques et ainsi être combinées avec des opérateurs génétiques tels que la mutation et le croisement. Grâce à cela, nous pouvons utiliser (ou réutiliser) différentes transformations de modèles implémentant différents patrons de conception sans pour autant modifier l’environnement d’optimisation. En plus de cela, les transformations de modèles peuvent être validées (par rapport aux contraintes structurelles) en amont et ainsi rejeter avant l’exploration les transformations générant des alternatives architecturales incorrectes. Enfin, les transformations de modèles peuvent être chainées entre elles afin de faciliter leur maintenance, leur réutilisabilité et ainsi concevoir des modèles plus détaillés et plus complexes se rapprochant des systèmes industrielles. A noter que l’exploration de chaines de transformations de modèles a été intégrée dans l’environnement d’optimisation
In this thesis, we propose a new exploration approach to tackle design space exploration problems involving multiple conflicting non functional properties. More precisely, we propose the use of model transformation compositions to automate the production of architectural alternatives, and multiple-objective evolutionary algorithms to identify near-optimal architectural alternatives. Model transformations alternatives are mapped into evolutionary algorithms and combined with genetic operators such as mutation and crossover. Taking advantage of this contribution, we can (re)-use different model transformations, and thus solve different multiple-objective optimization problems. In addition to that, model transformations can be chained together in order to ease their maintainability and re-usability, and thus conceive more detailed and complex systems
Style APA, Harvard, Vancouver, ISO itp.
3

Rahmoun, Smail. "Optimisation multi-objectifs d'architectures par composition de transformation de modèles". Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0004/document.

Pełny tekst źródła
Streszczenie:
Nous proposons dans cette thèse une nouvelle approche pour l'exploration d’espaces de conception. Plus précisément, nous utilisons la composition de transformations de modèles pour automatiser la production d'alternatives architecturales, et les algorithmes génétiques pour explorer et identifier des alternatives architecturales quasi-optimales. Les transformations de modèles sont des solutions réutilisables et peuvent être intégrées dans des algorithmes génétiques et ainsi être combinées avec des opérateurs génétiques tels que la mutation et le croisement. Grâce à cela, nous pouvons utiliser (ou réutiliser) différentes transformations de modèles implémentant différents patrons de conception sans pour autant modifier l’environnement d’optimisation. En plus de cela, les transformations de modèles peuvent être validées (par rapport aux contraintes structurelles) en amont et ainsi rejeter avant l’exploration les transformations générant des alternatives architecturales incorrectes. Enfin, les transformations de modèles peuvent être chainées entre elles afin de faciliter leur maintenance, leur réutilisabilité et ainsi concevoir des modèles plus détaillés et plus complexes se rapprochant des systèmes industrielles. A noter que l’exploration de chaines de transformations de modèles a été intégrée dans l’environnement d’optimisation
In this thesis, we propose a new exploration approach to tackle design space exploration problems involving multiple conflicting non functional properties. More precisely, we propose the use of model transformation compositions to automate the production of architectural alternatives, and multiple-objective evolutionary algorithms to identify near-optimal architectural alternatives. Model transformations alternatives are mapped into evolutionary algorithms and combined with genetic operators such as mutation and crossover. Taking advantage of this contribution, we can (re)-use different model transformations, and thus solve different multiple-objective optimization problems. In addition to that, model transformations can be chained together in order to ease their maintainability and re-usability, and thus conceive more detailed and complex systems
Style APA, Harvard, Vancouver, ISO itp.
4

Dayan, David. "Proposition d'automates étendus pour la spécification et l'implémentation du MDA (Model-Driven Architecture)". Reims, 2009. http://www.theses.fr/2009REIMS012.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Sirgabsou, Yandika. "Proposition d’une approche dirigée par les modèles pour la sûreté de fonctionnement logicielle - Application à l'architecture logicielle des véhicules connectés et autonomes". Electronic Thesis or Diss., Toulouse, INSA, 2023. http://www.theses.fr/2023ISAT0062.

Pełny tekst źródła
Streszczenie:
Dans le contexte du développement de logiciels automobiles, le problème général qui a motivé ce travail était la complexité croissante des architectures logicielles et les limites des pratiques actuelles en termes d’analyses de sécurité. Malgré le développement du MBSE (Model Based Systems Engineering), ces pratiques sont toujours caractérisées par le recours à des techniques manuelles traditionnelles d’analyse de la sécurité telles que l’analyse par arbre de défaillance (FTA) ou l’analyse des modes de défaillance et de leurs effets (AMDE). Bien qu’elles soient toujours utiles, ces techniques sont insuffisantes face à la complexité avec la possibilité d’aboutir à des analyses subjectives, inefficaces, de mauvaise qualité et sujettes aux erreurs. Par conséquent, pour améliorer l’état de la pratique actuelle dans le contexte automobile, notre proposition est d’appliquer l’approche d’analyse de la sécurité basée sur un modèle (MBSA) qui est une approche d’ingénierie pilotée par modèle pertinente appliquée à la sécurité. Toutefois, l’examen de l’état actuel de la technique des approches actuelles des MBSA suggère que la plupart de ces approches sont axées sur les systèmes et manquent d’un soutien méthodologique clair. En outre, certaines des approches MBSA (en particulier celles qui reposent sur un modèle dédié) nécessitent une compréhension approfondie (en termes de paradigme de modélisation) et peuvent être difficiles à mettre en œuvre dans le cas de systèmes complexes (limites de la modélisation manuelle). De même, dans les pratiques actuelles, l’analyse de la sécurité au niveau logiciel souffre d’une mauvaise intégration avec le processus de développement logiciel, ce qui peut entraîner des analyses de sécurité incohérentes. Pour résoudre ces problèmes, l’essence de notre contribution est de fournir une méthodologie qui adapte les concepts, les principes et les méthodes de MBSA dans le but d’améliorer la pratique de l’analyse de la sécurité des logiciels, en tenant compte de l’état actuel des pratiques (dans le processus de développement de logiciels existant).Notre première contribution consiste en une méthodologie couvrant toutes les étapes nécessaires pour effectuer une analyse de la sécurité sur les architectures logicielles automobiles en utilisant l’approche basée sur des modèles tout en répondant aux défis présentés par le manque d’intrants inadéquats apportés par l’utilisation d’artefacts centrés sur les documents dans certaines parties du processus de génie logiciel. Grâce à cette contribution, nous proposons une méthodologie étape par étape pour définir le contexte d’analyse de la sûreté, construire l’architecture dysfonctionnelle et l’utiliser pour des analyses de sûreté s’appuyant sur une approche modèle dédiée.La deuxième proposition, également méthodologique, vise à relever certains défis liés à la complexité due aux limites d’une approche modèle dédiée. Elle consiste à utiliser des modèles de pannes logicielles basés sur des modèles de pannes logicielles ISO 26262 pour faciliter la construction du modèle dysfonctionnel. Grâce à cette proposition, des prototypes de modèles de défaillance logicielle courants sont développés et réutilisés pour construire le modèle dysfonctionnel.La troisième contribution, encore en cours de développement, est une proposition d’outillage visant à automatiser partiellement et à faciliter la construction du comportement et de la propagation des défauts des composants logiciels par traduction logique fonctionnelle à dysfonctionnelle. Il vise à assurer une meilleure cohérence des analyses de sécurité logicielle avec le processus de développement logiciel en permanence avec les recommandations ISO 26262
In the context of automotive software development, the general problem that motivated this work was the growing complexity of software architectures and the limitations of the current practices in terms of safety analyses. Despite the development of MBSE (Model Based Systems Engineering), these practices are still characterized by the reliance on manual traditional safety analysis techniques such as Fault Tree Analysis (FTA) or Failure Modes and Effect Analysis (FMEA). Although still useful, these techniques fall short when faced with complexity with the possibility of resulting in subjective, inefficient, poor quality and error-prone analyses. Hence, to improve the state of the current practice in the automotive context, our proposal is to apply the Model Based Safety Analysis (MBSA) approach that is a relevant Model Driven Engineering approach applied to safety. However, the review of the current state of the art of current MBSA approaches suggests that most of these approaches are systems oriented and lack clear methodological support. In addition, some of the MBSA approaches (especially those relying on a dedicated model) require deep understanding (in terms of modeling paradigm) and can be challenging to implement in the case of complex systems (limitations of manual modeling). Also in current practices, safety analysis at software level suffers of poor integration with the software development process, which can result in inconsistent safety analyses. To address these issues, the essence of our contribution is to provide a methodology that adapts the concepts, principles, and methods of MBSA for the purpose of improving the practice of software safety analysis, taking into consideration the current state of practices (in the existing software development process).Our first contribution consists of a methodology covering all the steps required to perform safety analysis on automotive software architectures using the model-based approach while addressing the challenges presented by the lack of inadequate inputs brought by the use of document-centric artifact in some parts of the software engineering process. Through this contribution, we propose a step-by-step methodology for defining the safety analysis context, constructing the dysfunctional architecture, and using it for safety analyses relying on a dedicated model approach.The second proposal, also methodological, aims to address some challenges related to complexity brought by the limitations of a dedicated model approach. It consists of using software fault patterns based on ISO 26262 software fault templates to ease the construction of the dysfunctional model. Through this proposal, prototypes of common software fault patterns are developed and reused to build the dysfunctional model.The third contribution, still undergoing development, is a tooling proposal to partially automated and ease the construction of software component’s fault behavior and propagation through functional to dysfunctional logic translation. It aims to ensure a better consistency of software safety analyses with the software development process constantly with ISO 26262 recommendations
Style APA, Harvard, Vancouver, ISO itp.
6

Nguyen, Thi Mai. "A model driven engineering approach to build secure information systems". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL001.

Pełny tekst źródła
Streszczenie:
Aujourd’hui, les organisations s'appuient de plus en plus sur les systèmes d'information pour collecter, manipuler et échanger leurs données. Dans ces systèmes, la sécurité joue un rôle essentiel. En effet, toute atteinte à la sécurité peut entraîner de graves conséquences, voire détruire la réputation d'une organisation. Par conséquent, des précautions suffisantes doivent être prises en compte. De plus, il est bien connu que plus tôt un problème est détecté, moins cher et plus facile il sera à corriger. L'objectif de cette thèse est de définir les politiques de sécurité depuis les premières phases de développement et d’assurer leur déploiement correct sur une infrastructure technologique donnée.Notre approche commence par spécifier un ensemble d'exigences de sécurité, i.e. des règles statiques et dynamiques, accompagnées de l'aspect fonctionnel d'un système basé sur UML (Unified Modeling Language). L'aspect fonctionnel est exprimé par un diagramme de classes UML, les exigences de sécurité statiques sont modélisées à l'aide de diagrammes de SecureUML, et les règles dynamiques sont représentées en utilisant des diagrammes d'activités sécurisées.Ensuite, nous définissons des règles de traduction pour obtenir des spécifications B à partir de ces modèles graphiques. La traduction vise à donner une sémantique précise à ces schémas permettant ainsi de prouver l'exactitude de ces modèles et de vérifier les politiques de sécurité par rapport au modèle fonctionnel correspondant en utilisant les outils AtelierB prover et ProB animator. La spécification B obtenue est affinée successivement à une implémentation de type base de données, qui est basée sur le paradigme AOP. Les affinements B sont également prouvés pour s'assurer que l’implémentation est correcte par rapport à la spécification abstraite initiale. Le programme d’AspectJ traduit permet la séparation du code lié à la sécurité sécurité du reste de l'application. Cette approche permet d’éviter la diffusion du code de l'application, et facilite ainsi le traçage et le maintien.Enfin, nous développons un outil qui génère automatiquement la spécification B à partir des modèles UML, et la dérivation d'une implémentation d'AspectJ à partir de la spécification B affinée. L'outil aide à décharger les développeurs des tâches difficiles et à améliorer la productivité du processus de développement
Nowadays, organizations rely more and more on information systems to collect, manipulate, and exchange their relevant and sensitive data. In these systems, security plays a vital role. Indeed, any security breach may cause serious consequences, even destroy an organization's reputation. Hence, sufficient precautions should be taken into account. Moreover, it is well recognized that the earlier an error is discovered, the easier and cheaper it is debugged. The objective of this thesis is to define adequate security policies since the early development phases and ensure their correct deployment on a given technological infrastructure. Our approach starts by specifying a set of security requirements, i.e. static and dynamic rules, along with the functional aspect of a system based on the Unified Modeling Language (UML). Fundamentally, the functional aspect is expressed using a UML class diagram, the static security requirements are modeled using SecureUML diagrams, and the dynamic rules are represented using secure activity diagrams. We then define translation rules to obtain B specifications from these graphical models. The translation aims at giving a precise semantics to these diagrams, thus proving the correctness of these models and verifying security policies with respect to the related functional model using the AtelierB prover and the ProB animator. The obtained B specification is successively refined to a database-like implementation based on the AOP paradigm. The B refinements are also proved to make sure that the implementation is correct with respect to the initial abstract specification. Our translated AspectJ-based program allows separating the security enforcement code from the rest of the application. This approach avoids scattering and tangling the application's code, thus it is easier to track and maintain. Finally, we develop a tool that automates the generation of the B specification from UML-based models and of the AspectJ program connected to a relational database management system from the B implementation. The tool helps disburden developers of the difficult and error-prone task and improve the productivity of the development process
Style APA, Harvard, Vancouver, ISO itp.
7

Nguyen, Thi Mai. "A model driven engineering approach to build secure information systems". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL001/document.

Pełny tekst źródła
Streszczenie:
Aujourd’hui, les organisations s'appuient de plus en plus sur les systèmes d'information pour collecter, manipuler et échanger leurs données. Dans ces systèmes, la sécurité joue un rôle essentiel. En effet, toute atteinte à la sécurité peut entraîner de graves conséquences, voire détruire la réputation d'une organisation. Par conséquent, des précautions suffisantes doivent être prises en compte. De plus, il est bien connu que plus tôt un problème est détecté, moins cher et plus facile il sera à corriger. L'objectif de cette thèse est de définir les politiques de sécurité depuis les premières phases de développement et d’assurer leur déploiement correct sur une infrastructure technologique donnée.Notre approche commence par spécifier un ensemble d'exigences de sécurité, i.e. des règles statiques et dynamiques, accompagnées de l'aspect fonctionnel d'un système basé sur UML (Unified Modeling Language). L'aspect fonctionnel est exprimé par un diagramme de classes UML, les exigences de sécurité statiques sont modélisées à l'aide de diagrammes de SecureUML, et les règles dynamiques sont représentées en utilisant des diagrammes d'activités sécurisées.Ensuite, nous définissons des règles de traduction pour obtenir des spécifications B à partir de ces modèles graphiques. La traduction vise à donner une sémantique précise à ces schémas permettant ainsi de prouver l'exactitude de ces modèles et de vérifier les politiques de sécurité par rapport au modèle fonctionnel correspondant en utilisant les outils AtelierB prover et ProB animator. La spécification B obtenue est affinée successivement à une implémentation de type base de données, qui est basée sur le paradigme AOP. Les affinements B sont également prouvés pour s'assurer que l’implémentation est correcte par rapport à la spécification abstraite initiale. Le programme d’AspectJ traduit permet la séparation du code lié à la sécurité sécurité du reste de l'application. Cette approche permet d’éviter la diffusion du code de l'application, et facilite ainsi le traçage et le maintien.Enfin, nous développons un outil qui génère automatiquement la spécification B à partir des modèles UML, et la dérivation d'une implémentation d'AspectJ à partir de la spécification B affinée. L'outil aide à décharger les développeurs des tâches difficiles et à améliorer la productivité du processus de développement
Nowadays, organizations rely more and more on information systems to collect, manipulate, and exchange their relevant and sensitive data. In these systems, security plays a vital role. Indeed, any security breach may cause serious consequences, even destroy an organization's reputation. Hence, sufficient precautions should be taken into account. Moreover, it is well recognized that the earlier an error is discovered, the easier and cheaper it is debugged. The objective of this thesis is to define adequate security policies since the early development phases and ensure their correct deployment on a given technological infrastructure. Our approach starts by specifying a set of security requirements, i.e. static and dynamic rules, along with the functional aspect of a system based on the Unified Modeling Language (UML). Fundamentally, the functional aspect is expressed using a UML class diagram, the static security requirements are modeled using SecureUML diagrams, and the dynamic rules are represented using secure activity diagrams. We then define translation rules to obtain B specifications from these graphical models. The translation aims at giving a precise semantics to these diagrams, thus proving the correctness of these models and verifying security policies with respect to the related functional model using the AtelierB prover and the ProB animator. The obtained B specification is successively refined to a database-like implementation based on the AOP paradigm. The B refinements are also proved to make sure that the implementation is correct with respect to the initial abstract specification. Our translated AspectJ-based program allows separating the security enforcement code from the rest of the application. This approach avoids scattering and tangling the application's code, thus it is easier to track and maintain. Finally, we develop a tool that automates the generation of the B specification from UML-based models and of the AspectJ program connected to a relational database management system from the B implementation. The tool helps disburden developers of the difficult and error-prone task and improve the productivity of the development process
Style APA, Harvard, Vancouver, ISO itp.
8

Ouraiba, El Amine. "Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métier". Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00790696.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
Style APA, Harvard, Vancouver, ISO itp.
9

Brottier, Erwan. "Acquisition et analyse des exigences pour le développement logiciel : une approche dirigée par les modèles". Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00512174.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons à la définition d'une plate-forme industrielle favorisant une meilleure intégration des techniques de vérification et de validation des exigences au sein des processus de développement. Cette plate-forme, appelée R2A (pour Requirements To Analysis) est entièrement construite à l'aide de technologies issues de l'ingénierie dirigée par les modèles. Le cœur de la plate-forme est un processus de composition de modèles à deux niveaux de modélisation. Au niveau instance, il produit une spécification globale des exigences à partir d'une collection de spécifications d'exigences partielles, hétérogènes et potentiellement incohérentes. Au niveau de la conception de la plate-forme (niveau meta), il produit le formalisme interne de la plate-forme (types d'information pouvant être capturée et fonctionnalités supportées) à partir de composants de conception embarquant des sémantiques opérationnelles, de composition et de déploiement. Ce processus favorise l'adaptabilité de la plate-forme à des contextes industriels variés. L'obtention d'une spécification globale des exigences (i) autorise l'application des techniques modernes de vérification et de validation pour la détection d'incohérences et (ii) favorise une approche de développement dirigée par les modèles (MDD) dès les premières étapes du développement logiciel (synchronisation exigences et artefacts de développement aval). Dans sa version actuelle, la plate-forme est spécialisée pour le contexte industriel de France Télécom. Elle supporte quatre langages de description des exigences : les diagrammes d'activité et de classes UML, un langage naturel contraint (le RDL, pour Requirements Description Language) et son formalisme interne (le RM, pour Requirements Metamodel). Les fonctionnalités principales sont (i) la génération d'objectifs de test système, (ii) la production d'une première spécification d'analyse et (iii) la vérification de la cohérence des exigences.
Style APA, Harvard, Vancouver, ISO itp.
10

Diaw, Samba. "Spem4mde : un métamodèle et un environnement pour la modélisation et la mise en œuvre assistée de processus IDM". Phd thesis, Université Toulouse le Mirail - Toulouse II, 2011. http://tel.archives-ouvertes.fr/tel-00668956.

Pełny tekst źródła
Streszczenie:
L'avènement de l'IDM (Ingénierie Dirigée par les Modèles) a suscité beaucoup d'intérêt de la part des organisations qui de fait commencent à transformer leur processus de développement traditionnel en un processus de développement dirigé par les modèles, appelé aussi processus IDM.Au moment où ces processus commencent à émerger, nous notons l'absence d'un langage dédié pour les modéliser et les mettre en œuvre. Le standard SPEM 2.0 propose des concepts génériques qui sont supposés être capables de décrire tout type de processus logiciel. Cependant, les concepts de SPEM ne capturent pas la nature exacte des processus IDM. D'autre part, une autre insuffisance majeure de SPEM réside dans le fait qu'il n'intègre pas les concepts relatifs à la mise en œuvre des processus.L'objectif de cette thèse est triple : (1) proposer une extension de SPEM dans laquelle les concepts centraux des processus IDM sont réifiés ; (2) proposer un langage dédié à la modélisation comportementale des processus IDM ; (3) proposer une architecture conceptuelle d'un environnement logiciel d'aide à la modélisation et à la mise en œuvre des processus IDM.Pour valider notre approche, un prototype a été développé sous l'environnement TOPCASED. Ce prototype fournit d'une part un éditeur graphique pour la modélisation structurelle et comportementale des processus IDM et d'autre part un environnement de mise en œuvre s'appuyant sur les modèles comportementaux des processus. Nous avons également appliqué notre approche à une étude de cas significatif: le processus UWE (UML-based Web Engineering), qui est un processus IDM dédié au développement d'applications web.
Style APA, Harvard, Vancouver, ISO itp.
11

Samson, Pierre. "Adaptation logicielle pour et par les i DSML". Thesis, Pau, 2015. http://www.theses.fr/2015PAUU3025/document.

Pełny tekst źródła
Streszczenie:
L’un des buts de l’Ingénierie Dirigée par les Modèles (IDM) est de considérer les modèles comme des éléments productifs pour le développement d’applications. Dans cette optique, une nouvelle tendance concerne les modèles exécutables où un modèle produit en phase de conception est réutilisé en tant que tel en phase d’exécution grâce aux interpreted Domain-Specific Modeling Language (i DSML) qui sont interprétés par un moteur d’exécution. Cette façon de procéder permet de gagner du temps lors du développement d’un logiciel et est par conséquent moins coûteux. D’autre part, les logiciels peuvent être dotés de capacités adaptatives. Ces applications adaptatives sont généralement confrontées à un contexte qui est plus ou moins connu et susceptible de changer au cours de l’exécution et auquel elles vont devoir faire face en modifiant leur comportement dynamiquement, c’est-à-dire sans interruption de service. De telles adaptations dynamiques et automatiques sont censées éviter une phase de maintenance onéreuse pour le logiciel. Nous avons donc d’un côté les i DSML qui permettent de réduire les coûts de développement d’une application et de l’autre côté l’adaptation logicielle qui permet de réduire les coûts de maintenance d’un programme. Dans cette thèse nous souhaitons prendre le meilleur des deux mondes en fusionnant les deux idées. Le résultat revient in fine à directement adapter l’exécution d’un modèle via des i DSML adaptables. Pour cela, nous proposons une caractérisation des i DSML adaptables, la définition du concept de famille pour gérer l’adaptation des i DSML, puis la création d’un langage exécutable d’orchestration dédié à l’adaptation, aboutissant ainsi au fait particulier d’adapter un i DSML par un autre i DSML. Enfin, un prototype à base de deux moteurs d’exécution est proposé avec son implémentation en Java/EMF
One of the goals of Model-Driven Engineering (MDE) is to treat models as productive elements for software development. From this point of view, a new trend is about executable models where a model that is produced at design time is reused as such at runtime through interpreted Domain-Specific Modeling Languages (i DSMLs) that are interpreted by an execution engine. This way to proceed allows to save time during the software development and consequently is more cost-effective. On the other hand, software can provide adaptive capabilities. These adaptive applications are often facing a context which is more or less known and which may change during the execution and they will address these various situations by modifying dynamically their own behavior, i.e. without any service disruption. Such dynamic and automatic adaptations ought to avoid a too expensive maintenance stage for the program. We have on one hand the i DSMLs that allow to decrease the development costs of a program and on the other hand the software adaptation that allows to decrease the maintenance costs of an application. In this thesis, we must succeed in having the best of both worlds by merging these two ideas. The result is ultimately to directly adapt the model execution through adaptable i DSMLs. To this end, we propose a characterization of adaptable i DSMLs, the definition of the family concept to manage adaptation of i DSMLs, then the creation of an executable orchestration language for adaptation, thereby leading to the fact that an i DSML is adapted through an other i DSML. Finally, a prototype based on two execution engines is proposed with its implementation in Java/EMF
Style APA, Harvard, Vancouver, ISO itp.
12

Mzid, Rania. "Rétro-ingénierie des plateformes pour le déploiement des applications temps-réel". Thesis, Brest, 2014. http://www.theses.fr/2014BRES0065/document.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans cette thèse s’inscrivent dans le cadre du développement logiciel des systèmes temps réel embarqués. Nous définissons dans ce travail une méthodologie nommée DRIM. Cette méthodologie permet de guider le déploiement des applications temps réel sur différents RTOS en suivant la ligne de l’IDM et en assurant le respect des contraintes de temps après le déploiement. L’automatisation de la méthodologie DRIM montre sa capacité à détecter les descriptions non-implémentables de l’application, réalisées au niveau conception, pour un RTOS donné, ce qui présente l’avantage de réduire le temps de mise sur le marché d’une part et de guider l’utilisateur pour un choix approprié de l’RTOS cible d’autre part
The main purpose of this Phd is to contribute to the software development of real-time embedded systems. We define in this work a methodology named DRIM: Design Refinement toward Implementation Methodology. This methodology aims to guide the deployment of a real-time application on to different RTOS while respecting MDE principals and ensuing that the timing properties are still met after deployment. The automation of DRIM shows its ability to detect non-implementable design models describing the real-time application, on aparticular RTOS, which permits to reduce the time-to-market on the one hand and guide the user to the selection of the appropriate RTOS from the other hand
Style APA, Harvard, Vancouver, ISO itp.
13

Belaunde, Mariano. "Le Développement Agile de Services de Télécommunication Intégrés via des techniques d'ingénierie des modèles". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00650682.

Pełny tekst źródła
Streszczenie:
Pour devenir ou rester compétitif, un opérateur télécom doit constamment enrichir ou adapter son offre de services. Cette recherche permanente d'innovation implique de rendre agiles les processus de création de service. Par agilité nous entendons non seulement la capacité à mettre rapidement sur le marché de nouvelles idées de service mais également de s'assurer de leur évolution dans un environnement technologique changeant. Dans ce mémoire de thèse nous défendons l'idée qu'une utilisation pragmatique et combinée des principes du SOA avec les technologies d'ingénierie des modèles peut être un facteur clef pour l'optimisation du processus de création de services et pour répondre aux exigences de l'agilité. L'approche que nous recommandons dans le cas des services de télécommunications que nous avons étudié (les services composites intégrés et les services vocaux) c'est d'abord d'utiliser des langages dédiés (DSL) graphiques et/ou textuels pour la spécification de haut niveau des services, ensuite d'exploiter ces spécifications dans des environnements de création et d'exécution (frameworks) orientés modèles supportant nativement le DSL, afin de permettre le test et la simulation au plus tôt des fonctionnalités du service via des itérations rapides. Enfin une automatisation importante du déploiement vers les plates-formes de production (serveurs d'application) et les terminaux mobiles (code client) via le développement de transformateurs dédiés. Le travail présenté dans cette thèse est validé par plusieurs expérimentations et démonstrations portant sur des services vocaux et des services de télécommunication intégrés composites (exploitant des ressources télécom et des facilités issues de l'industrie informatique).
Style APA, Harvard, Vancouver, ISO itp.
14

Hachani, Safa. "ASAP approche orientée : services pour un support agile et flexible des processus de conception de produit dans les systèmes PLM". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI094/document.

Pełny tekst źródła
Streszczenie:
La dynamique de l’offre et de la demande des produits manufacturiers ainsi que leraccourcissement de leurs cycles de vie obligent les entreprises industrielles à se doter de processus dedéveloppement produit dynamiques et agiles. Nos travaux se positionnement sur le supportinformatisé de ces processus de développement qui sont actuellement gérés par les systèmes PLM.L’objectif d’un support informatisé est d’accélérer le processus en automatisant la notification et ladiffusion des informations. Il permet également de garder trace des opérations et décisions effectuéeset d’accroître la standardisation des processus. Face à la rigidité des solutions actuellement proposéespour gérer les processus vis-à-vis des modifications survenant dans le processus, notre objectif est deproposer une approche permettant de modifier un processus en cours d’exécution sans devoir leredéfinir et le relancer dans son ensemble. Pour y parvenir, nous avons proposé, une approche quidécline une orientation services inspirée des architectures orientées services (SOA). Ces architecturespermettent de définir des applications modulaires, en utilisant des services faiblement couplés. Notreobjectif est de décliner une telle architecture exploitée essentiellement pour les systèmes logiciels et leWeb, au niveau métier de l’entreprise afin de modéliser et d’exécuter de manière flexible desprocessus de conception de produits par composition de services réutilisables. Nous proposons unedémarche d'identification des services du domaine métier des processus de conception produit et dudomaine fonctionnel du PLM. Ces services sont organisés dans deux catalogues de services métiers etfonctionnels. Notre approche s'inscrit dans le cadre de l'Ingénierie Dirigée par les Modèles (IDM) avecune architecture de réference à trois niveaux et des mécanismes d’alignement entre les niveaux métier,fonctionnel et logiciel. Ces mécanismes d'alignement entre les niveaux permettent d’intégrerl’évolution et d'automatiser le déploiement d’un processus de conception du niveau métier auxniveaux fonctionnel et logiciel
To cope with market dynamic and shortened time to market, industrial companies need toimplement an effective management of their design processes (DPs) and product information.Unfortunately, Product Lifecycle Management (PLM) systems which are dedicated to support designactivities are not efficient as it might be expected. Indeed, DPs are changing, emergent and nondeterministic, due to the business environment under which they are carried out. The aim of this workis to propose an alternative approach for flexible process support within PLM systems to facilitate thecoupling with the environment reality. The purpose of a support system is to accelerate the process byautomating the notification and dispatching of information and activities between actors. It also allowsto keep track of transactions and decisions made and to increase processes standardization. Our goal isto propose a solution which allows process change at run-time without having to redefine and restartthe whole of process activities. To achieve this, we proposed an approach based on service-orientedarchitectures (SOA). These architectures allow defining modular applications, using loosly coopledservices. They are mainly exploited for software systems and Web development. Our goal is to declinesuch architectures at the business level of a company in order to perform flexible DPs deploymentbased on services reuse and composition. We propose an identification approach for business levelservices (product design services) and functional PLM services. These services are organized in twocatalogs of business and functional services. Our approach is based on Model Driven Approach withthree levels which propose alignment mechanisms between business, functional and technical levels.These alignment mechanisms between levels allow integrating change and automating design processdeployment
Style APA, Harvard, Vancouver, ISO itp.
15

Mabrouki, Olfa. "Semantic Framework for Managing Privacy Policies in Ambient Intelligence". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112319/document.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail de thèse est de proposer un canevas sémantique intégrant un méta-modèle et des outils de raisonnement permettant à tout concepteur de système ubiquitaire de mettre en oeuvre facilement des mécanismes de gestion des politiques de la vie privée. Le canevas proposé intègre une architecture middleware générique qui offre des composants pour définir, administrer et contrôler l'application des politiques de confidentialité. Notre approche proposée est hybride. Elle est fondée sur l’ingénierie dirigée par les modèles et sur un raisonnement à base d'ontologies et de règles d'inférence opérant selon l'hypothèse du monde clos. Le méta-modèle proposé est caractérisé par un niveau d'abstraction et d'expressivité élevé permettant de définir des politiques de gestion de la vie privée indépendamment du domaine d'application pouvant être adaptées à différents contextes. Il définit, aussi, un cadre conceptuel pour établir des modèles de règles génériques et décidables permettant de prendre des décisions de contrôle cohérentes pour la protection de la vie privée. Ces modèles de règles sont mis en oeuvre grâce au langage de règles SmartRules permettant de mettre en oeuvre un contrôle adaptatif. Ce dernier est basé sur un raisonnement non-monotone et une représentation des instances de concepts selon la supposition du nom unique. Nous avons validé le canevas proposé à travers un scénario typique mettant en oeuvre des services d'assistance ambiante sensibles à la vie privée de personne âgée
This thesis aims at proposing a semantic framework that integrates a meta-model and reasoning tools allowing any ubiquitous system designer to easily implement mechanisms to manage privacy policies. The proposed framework includes a generic middleware architecture that provides components to define, manage and monitor the implementation of privacy policies. Our approach is an hybrid one based on Model-Driven Engineering and a reasoning based on ontologies and inference rules operating on the assumption of the closed world. The proposed meta-model is characterized by a high level of abstraction and expressiveness to define privacy policies management regardless of the domain application and can be adapted to different contexts. It defines, also, a conceptual framework for generic decidable modelling rules to make consistent control decisions on user privacy. These model rules are implemented using the SmartRules language that could implement an adaptive control. The latter is based on a non-monotonic reasoning and representation of instances of concepts according to the unique name assumption. We have validated the proposed semantic framework through a typical scenario that implements support ambient intelligence privacy-aware services for elderly
Style APA, Harvard, Vancouver, ISO itp.
16

Carloganu, Sinziana. "Evaluation de produits d'effacement sur un ensemble de consommateurs par modélisation bottom-up d'un parc de logements". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM064.

Pełny tekst źródła
Streszczenie:
Cette thèse se propose d’évaluer les produits d’effacement réalisés sur un ensemble de consommateurs, chacun étant défini par le triplet {bâtiment, systèmes, ménage}. On définit un produit d’effacement par la caractérisation de la déformation de la courbe de charge de l’ensemble des consommateurs suite à l’envoi d’un signal de contrôle (pilotage direct ou signal tarifaire).Deux dimensions ont été considérées dans le cadre de ce travail : l’étude des variables d’influence sur les effacements de consommation en s’appuyant sur des données issues d’expérimentations ainsi que l’élaboration d’un modèle global permettant de reproduire une partie de la diversité observée sur les courbes de charge des clients expérimentateurs.Afin d’analyser un échantillon {bâtiments, systèmes, ménages}, une attention particulière est portée à la dispersion des caractéristiques du bâti (enveloppes, expositions, ...) et aux éventuelles corrélations entre le ménage (mode de vie, choix des équipements, ...) et les systèmes (caractéristiques techniques), notamment pour l’usage "chauffage et climatisation".Un travail de réconciliation de données (issues de statistiques, de travaux sur la caractérisation des logements métropolitains, d’études sur les habitudes de vie des ménages, ...) a permis de proposer une première évaluation en simulation d’effacement de l’usage chauffage au périmètre d’un parc de quelques milliers de logements.L’approche bottom-up proposée permet ainsi de rendre compte de la diversité technique, fonctionnelle et d’origine comportementale de l’usage étudié
This thesis aims at evaluating load curtailments packages over a set of electricity users, each being defined by the triolet {building, system, household}. We define a load curtailment package by the quantification of the load curve's deformation due to the emission of a control signal (direct control or price incentive).Two dimensions were considered through this work: first the study of the different variables' influence using experimental data, and secondly the construction of a global model which can effectively reproduce the diversity observed on experimental load curves.In order to analyse a sample {building, system, household}, the dispersion of the different caracteristics of the building (envelope, exposure,...) were carefully studied, as well as the possible links between the household (lifestyle, choice of household equipments,...) and the systems (technical caracteristics) especially for the electrical heaters and HVAC systems.We work to reconcile data from different sources (statistical data, data from research on urban building caracterization, on households' habits,...) and we are able to give a first evaluation of load curtailment products over the electrical heating usage in urban environment through numerical simulations of a few thousand housings. The bottom-up approach used accounts for the technical diversity, as well as the functional and behavioral diversity of the studied electrical usage
Style APA, Harvard, Vancouver, ISO itp.
17

El, Hamlaoui Mahmoud. "Mise en correspondance et gestion de la cohérence de modèles hétérogènes évolutifs". Thesis, Toulouse 2, 2015. http://www.theses.fr/2015TOU20042/document.

Pełny tekst źródła
Streszczenie:
Pour permettre la compréhension et la manipulation d’un système complexe, le découpage en parties séparées est nécessaire. En Ingénierie Dirigée par les Modèles (ou Model Driven Engineering), ces parties sont représentées par des modèles, que nous qualifions de modèles partiels, dans la mesure où ils sont focalisés sur des domaines métiers distincts. Dans ce contexte de multi-modélisation, ces modèles sont dits hétérogènes quand ils sont décrits dans des langages de modélisation distincts dédiés à différents domaines métiers : DSML (Domain Specific Modeling language). La compréhension et l’exploitation efficace des connaissances relatives à un tel système supposent la construction d’un modèle global représentant son fonctionnement. La création du modèle global requiert l’identification des correspondances existant entre les éléments des différents modèles partiels. Dans la pratique, ces correspondances sont soit incomplètement identifiées, soit insuffisamment formalisées pour être maintenues lorsque les modèles partiels évoluent. Ceci limite leur utilisation et ne permet pas de les exploiter pleinement lors de la construction du modèle global ou du traitement de l’évolution des modèles partiels. L’apport de cette thèse est double. La première contribution est celle d’un processus permettant la création d’une vue globale du système par l’intermédiaire d’une composition fondée sur la mise en correspondance des modèles partiels. Les correspondances identifiées entres les éléments des modèles se basent sur des types de relations instanciées à partir d’un métamodèle de correspondance. Ce dernier est extensible (selon les spécificités du domaine d’application considéré) et permet de supporter les concepts relatifs à ce domaine. Les correspondances sont d’abord identifiées entre les méta-éléments des métamodèles respectifs des modèles partiels. Les correspondances entre les éléments de modèles sont ensuite obtenues par un mécanisme de raffinement, supporté par un langage d’expression sémantique ad hoc : SED (Semantic Expression DSL). La composition est dite « virtuelle » dans la mesure où les éléments figurant dans une correspondance ne sont que des références aux éléments appartenant aux modèles partiels. De ce fait, les modèles interconnectés par ces correspondances forment un modèle global virtuel. La seconde contribution est relative au maintien de la cohérence des modèles partiels et du modèle global. En effet, les modèles évoluant dans le temps, le changement d’un élément ou de plusieurs éléments participant à l’expression des correspondances, peut entrainer l’incohérence du modèle global. Pour maintenir la cohérence du modèle global, nous proposons un second processus permettant tout d’abord d’identifier automatiquement les changements réalisés ainsi que leurs classifications et leurs répercussions sur les éléments de modèles concernés. Par la suite, les différents cycles sont gérés à l’aide de l’expert puis une liste de changements est générée en fonction de la stratégie choisie et des coefficients de pondération. Enfin, le traitement des changements est réalisé de façon semi-automatique. Ce travail a été concrétisé par le développement d’un outil support nommé HMCS (Heterogeneous Matching and Consistency management Suite), basé sur la plateforme Eclipse. L’approche a été validée et illustrée à travers un cas d’étude portant sur la gestion du Service d'Urgence d'un hôpital. Ce travail a été mené en collaboration avec le CHU de Montpellier
To understand and manipulate a complex system, it is necessary to apply the separation of concerns and produce separate parts. In Model Driven Engineering (MDE), these parts are represented by models qualified as partial models. In this context of multi-modeling, these models are called heterogeneous when they are described in separate modeling languages dedicated to different business domains: DSML (Domain Specific Modeling Language). Global model creation requires identifying existing correspondences between the elements of the partial models. However, in practice these correspondences are either incompletely identified or not sufficiently formalized to be maintained when the partial models evolve. This restricts their use and does not allow to fully exploit them for building the global model or for treating partial models evolution. The contribution of this thesis is twofold. The first contribution deals with a process for creating a global view of the system by means of a composition based on partial models matching. Identified correspondences between models elements are based on types of relationship instantiated from a metamodel of correspondences. This latter is extensible, depending on the considered application domain, and allows supporting the concepts related to this domain. Correspondences are firstly identified between meta-elements belonging to metamodels of the respective partial models. Correspondences between model elements are then obtained by a refinement mechanism, supported by an ad hoc Semantic Expression language: SED (Semantic Expression DSL). The composition is called “virtual” since elements represented in a correspondence are only references to elements belonging to partial models. Therefore, models interconnected by this correspondences form a virtual global model. The second contribution relates the consistency of the global model. Indeed, as models evolve over time, changing one or several elements involved in a correspondence, may cause the inconsistency of the global model. To maintain its consistency, we propose a second process enabling to automatically identify the changes, classify them and treat their impacts on the involved model elements. Management of repercussions is performed semi-automatically by the expert by means of strategies and weights. This work has been implemented through a support tool named HMCS (Heterogeneous Matching and Consistency management Suite) based on the Eclipse Platform. The approach has been validated and illustrated through a case study related to the management of a Hospital Emergency Service. This work was led in collaboration with the “CHU of Montpellier”
Style APA, Harvard, Vancouver, ISO itp.
18

Motii, Anas. "Engineering secure software architectures : patterns, models and analysis". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30274/document.

Pełny tekst źródła
Streszczenie:
De nos jours la plupart des organisations pour ne pas dire toutes, dépendent des technologies de l'information et de la communication (TIC) pour supporter plusieurs tâches et processus (quelquefois critiques). Cependant, dans la plupart des cas, les organisations et en particulier les petites entreprises accordent une importance limitée à l'information et à sa sécurité. En outre, sécuriser de tels systèmes est une tâche difficile en raison de la complexité et de la connectivité croissante du matériel et du logiciel dans le développement des TICs. Cet aspect doit alors être pris en compte dès les premières phases de conception. Dans ce travail, nous proposons une approche basée sur les modèles permettant de sécuriser des architectures logicielles en utilisant des patrons. Les contributions de ce travail sont : (1) un cadre de conception intégré pour la spécification et l'analyse d'architectures logicielles sécurisées, (2) une nouvelle méthodologie à base de modèles et de patrons et (3) une suite d'outils. Le fondement de l'approche associe un environnement basé sur des langages de modélisation pour la spécification et l'analyse des modèles d'architectures sécurisées et un dépôt à base de modèles d'artéfacts dédiés à la sécurité (modèle de patrons de sécurité, menaces et propriétés de sécurités) permettant la réutilisation de savoir-faire et de connaissances capitalisées. Pour cela on utilise des langages de modélisation pour la spécification et l'analyse de l'architecture. Le processus associé est constitué des activités suivantes : (a) analyse de risques à base de modèle appliquée à l'architecture du système pour identifier des menaces, (b) sélection et importation de modèles de patrons de sécurité, afin d'arrêter ou de mitiger les menaces identifiées, vers l'environnement de modélisation cible, (c) intégration de modèles de patrons dans le modèle d'architecture, (d) analyse de l'architecture obtenue par rapports aux exigences non-fonctionnelles et aux menaces résiduelles. Dans ce cadre, on s'est focalisé sur la vérification du maintien du respect des contraintes temporelles après application des patrons. La recherche de menaces résiduelles est réalisée à l'aide de techniques de vérification exploitant une représentation formelle des scénarios de menaces issus du modèle STRIDE et basés sur des référentiels de menaces existants (ex., CAPEC). Dans le cadre de l'assistance pour le développement des architectures sécurisées, nous avons implémenté une suite structurée d'outils autour du framework SEMCO et de la plateforme Eclipse Papyrus pour supporter les différentes activités basées sur un ensemble de langages de modélisation conforme à des standards OMG (UML et ses profils). Les solutions proposées ont été évaluées à travers l'utilisation d'un cas d'étude autour des systèmes SCADA (systèmes de contrôle et d'acquisition de données)
Nowadays most organizations depend on Information and Communication Technologies (ICT) to perform their daily tasks (sometimes highly critical). However, in most cases, organizations and particularly small ones place limited value on information and its security. In the same time, achieving security in such systems is a difficult task because of the increasing complexity and connectivity in ICT development. In addition, security has impacts on many attributes such as openness, safety and usability. Thus, security becomes a very important aspect that should be considered in early phases of development. In this work, we propose an approach in order to secure ICT software architectures during their development by considering the aforementioned issues. The contributions of this work are threefold: (1) an integrated design framework for the specification and analysis of secure software architectures, (2) a novel model- and pattern-based methodology and (3) a set of supporting tools. The approach associates a modeling environment based on a set of modeling languages for specifying and analyzing architecture models and a reuse model repository of modeling artifacts (security pattern, threat and security property models) which allows reuse of capitalized security related know-how. The approach consists of the following steps: (a) model-based risk assessment performed on the architecture to identify threats, (b) selection and instantiation of security pattern models towards the modeling environment for stopping or mitigating the identified threats, (c) integration of security pattern models into the architecture model, (d) analysis of the produced architecture model with regards to other non-functional requirements and residual threats. In this context, we focus on real-time constraints satisfaction preservation after application of security patterns. Enumerating the residual threats is done by checking techniques over the architecture against formalized threat scenarios from the STRIDE model and based on existing threat references (e.g., CAPEC). As part of the assistance for the development of secure architectures, we have implemented a tool chain based on SEMCO and Eclipse Papyrus to support the different activities based on a set of modeling languages compliant with OMG standards (UML and its profiles). The assessment of our work is presented via a SCADA system (Supervisory Control And Data Acquisition) case study
Style APA, Harvard, Vancouver, ISO itp.
19

Saada, Hajer. "Exploiting Model Transformation Examples for Easy Model Transformation Handling (Learning and Recovery)". Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20223/document.

Pełny tekst źródła
Streszczenie:
L'Ingénierie Dirigée par les Modèles (IDM) est un domaine de recherche en pleine émergence qui considère les modèles comme des éléments de base. Chaque modèle est conforme à un autre modèle, appelé son méta-modèle, qui définit sa syntaxe abstraite et ses concepts. Dans un processus IDM, différents types de modèles sont manipulés par des transformations de modèles. Une transformation génère un modèle dans un langage cible à partir d'un modèle dans un langage source. Pour concevoir une transformation, les développeurs doivent avoir une bonne connaissance des méta-modèles concernés ainsi que des langages de transformation, ce qui rend cette tâche difficile. Dans cette thèse, nous proposons d'assister l'écriture des transformations et plus généralement de comprendre comment une transformation opère. Nous adhérons à l'approche de transformation de modèles par l'exemple qui propose de créer une transformation de modèles à partir d'exemples de transformation. Cela permet d'utiliser la syntaxe concrète définie pour les méta-modèles, et cela évite donc de requérir que les développeurs aient une bonne maîtrise des méta-modèles utilisés. Dans ce contexte, nous proposons deux contributions. La première consiste à définir une méthode pour générer des règles de transformation opérationnelles à partir d'exemples. Nous nous basons sur une approche qui utilise l'Analyse Relationnelle de Concepts (ARC) comme technique d'apprentissage pour obtenir des patrons de transformation à partir d'un appariement de type 1-1 entre les modèles. Nous développons une technique pour extraire des règles de transformation opérationnelles à partir de ces patrons. Ensuite, nous utilisons le langage et le moteur de règles JESS pour exécuter ces règles. Nous étudions aussi comment mieux apprendre des règles de transformations à partir d'exemples, en utilisant séparément chaque exemple ou en réunissant tous les exemples. La deuxième contribution consiste à récupérer les traces de transformation à partir d'exemples de transformation. Ces traces peuvent être utilisées par exemple pour localiser des erreurs durant l'exécution des programmes de transformation ou vérifier la couverture de tous les modèles d'entrée par une transformation. Dans notre contexte, nous supposons que ces traces vont servir pour un futur apprentissage des règles de transformation. Nous traitons tout d'abord le problème de récupération des traces avec des exemples provenant d'un programme de transformation. Nous proposons une approche basée sur une méta-heuristique multi-objectifs pour générer des traces sous forme d'appariement de type n-m entre des éléments de modèles. La fonction objectif s'appuie sur une similarité lexicale et structurelle entre ces éléments. Une extension de cette méthode est proposée pour traiter le problème plus général de l'appariement entre modèles
Model Driven Engineering (MDE) considers models as first class artifacts. Each model conforms to another model, called its metamodel which defines its abstract syntax and its semantics.Various kinds of models are handled successively in an MDE development cycle. They are manipulated using, among others, programs called model transformations. A transformation takes as input a model in a source language and produces a model in a target language. The developers of a transformation must have a strong knowledge about the source and target metamodels which are involved and about the model transformation language. This makes the writing of the model transformation difficult.In this thesis, we address the problem of assisting the writing of a model transformation and more generally of understanding how a transformation operates.We adhere to the Model Transformation By example (MTBE) approach, which proposes to create a model transformation using examples of transformation. MTBE allows us to use the concrete syntaxes defined for the metamodels. Hence, the developers do not need in-depth knowledge about the metamodels. In this context, our thesis proposes two contributions.As a first contribution, we define a method to generate operational transformation rules from transformation examples. We extend a previous approach which uses Relational Concept Analysis as a learning technique for obtaining transformation patterns from 1-1 mapping between models. We develop a technique for extracting relevant transformation rules from these transformation patterns and we use JESS language and engine to make the rules executable. We also study how we better learn transformation rules from examples, using transformation examples separately or by gathering all the examples.The second contribution consists in recovering transformation traces from transformation examples. This trace recovery is useful for several purposes as locating bugs during the execution of transformation programs, or checking the coverage of all input models by a transformation. In our context, we expect also that this trace will provide data for a future model transformation learning technique. We first address the trace recovery problem with examples coming from a transformation program. We propose an approach, based on a multi-objective meta-heuristic, to generate the textit{many-to-many} mapping between model constructs which correspond to a trace. The fitness functions rely on the lexical and structure similarity between the constructs. We also refine the approach to apply it to the more general problem of model matching
Style APA, Harvard, Vancouver, ISO itp.
20

Faucher, Cyril. "Modélisation d'événements composites répétitifs, propriétés et relations temporelles". Thesis, La Rochelle, 2012. http://www.theses.fr/2012LAROS385/document.

Pełny tekst źródła
Streszczenie:
La modélisation des événements et de leurs propriétés temporelles concerne des types variés d’utilisateurs et de communautés scientifiques. Nous nous plaçons dans le cadre du paradigme Objet et construisons un méta modèle opérationnel servant de représentation pivot, indépendante du métier pour représenter des événements composites avec leurs propriétés structurelles et temporelles. Le méta modèle PTOM (Periodic Temporal Occurrence Metamodel) prend en compte l’expression de contraintes structurelles sur les événements, ou géométriques, topologiques et relationnelles sur la temporalité de leurs occurrences. Il privilégie la représentation en intension (vs extension) des occurrences d’événements périodiques. PTOM étend la norme ISO 19108 et s’adapte aux standards EventsML G2 et iCalendar. Sur un plan théorique, nous étendons les algèbres d’intervalles d’ALLEN et de LIGOZAT, et proposons un système de relations topologiques entre intervalles non convexes (ALLEN*) dont nous étudions les propriétés. Ces résultats sont intégrés dans PTOM. La première application de PTOM est la spécification de la sémantique du calendrier grégorien. Les éléments calendaires sont réintroduits en tant qu’événements périodiques dans PTOM, ce qui renforce son pouvoir expressif. PTOM a été mis en œuvre lors d’un projet ANR sur des corpus d’événements journalistiques (agences de presse) concernant les loisirs et la culture. L’Ingénierie Dirigée par les Modèles a été utilisée pour la conception et l’exploitation de PTOM. Cela permet de gérer la complexité, d’assurer la maintenabilité et la cohérence de l’ensemble et enfin, de générer automatiquement des interfaces pour les pourvoyeurs ou utilisateurs de données
Modelling events with their temporal properties concerns many users and scientific communities. We adopted the Object paradigm and designed an operational metamodel which stands as a pivot business independent representation for composite events accompanied with their structural and temporal properties. PTOM metamodel (Periodic Temporal Occurrence Metamodel) accounts for structural constraints upon events and geometric, topologic or relational constraints upon their temporal occurrences. It gives prominence to intensional representations of periodic events occurrences vs extensional ones. PTOM extends ISO 19108 standard and fits EventsML G2 and iCalendar. From a theoretical viewpoint, we extend ALLEN’s and LIGOZAT’s interval algebras and propose a special set of topological relations between non convexintervals (ALLEN*), and study its properties. These results are part of PTOM. The first application of PTOM results in a specification of the Gregorian calendar semantics. Calendar elements are reinserted as periodic events in PTOM thus enhancing its expressiveness. PTOM was also experimented upon a corpus of journalistic (press agencies) events dedicated to leisure and culture at the occasion of an ANR project. Model Driven Engineering was extensively used for PTOM design and use.It allows to manage complexity and to ensure maintainability, consistency and eventually can automatically generate data provider or end user interfaces as well
Style APA, Harvard, Vancouver, ISO itp.
21

Guo, Ran. "Vélocimétrie tridimensionnelle de suivi en temps réel de particules à grande échelle pour l'étude des flux en intérieur". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5073.

Pełny tekst źródła
Streszczenie:
Le suivi Lagrangien de particules (en anglais Particle Tracking Velocimetry ou PTV) représente une technique fondamentale dans l'étude de la dynamique des fluides, permettant l'observation des champs d'écoulement ainsi que l'analyse et la quantification du mouvement et de la distribution des fluides dans un espace donné. Cette thèse répond à la demande croissante de systèmes PTV en temps réel et à haute vitesse dans des environnements de plus en plus complexes en intégrant des architectures matérielles avancées et des techniques de modélisation à l'échelle du système. La contribution de cette thèse a des implications importantes tant pour la recherche théorique que pour les applications pratiques. L'intégration réussie de la modélisation à l'échelle du système avec des architectures matérielles telles que les FPGA et les SoC fournit une base solide pour le développement de systèmes en temps réel à haute performance dans des domaines où la latence réduite et un débit élevé sont essentiels. Deux approches distinctes d'Ingénierie Dirigée par les Modèles (MDE) sont étudiées dans cette recherche pour les systèmes PTV : la première basée sur le modèle Réseau de Processus Réactifs (RPN) utilisant LabVIEW FPGA, et la deuxième exploitant le Langage de Modélisation de Systèmes (SysML) pour le modèle d'application, couplé à l'Open Computing Language (OpenCL) pour l'exécution de la plateforme. Un modèle formel RPN a fourni une base rigoureuse pour l'analyse du système, facilitant la spécification précise des interactions entre les composants. La faisabilité des méthodologies proposées a été validée par le développement et les tests du prototype initial sous LabVIEW. Sur cette base, un modèle SysML a été introduit et intégré avec des architectures multi-SoC, démontrant des améliorations substantielles en termes de rapidité d'exécution et d'évolutivité. Des architectures de traitement parallèle et des méthodologies sont mises en œuvre pour optimiser la concurrence et le débit du système, éléments essentiels pour répondre aux exigences des applications PTV en temps réel. Les résultats expérimentaux montrent que le système respecte le cahier des charges en termes de vitesse (nombre d'images par seconde) et de nombre de particules par image, tout en maintenant une précision dans le suivi des mouvements des particules dans des environnements à grande échelle de flux d'air. De plus, les résultats de cette thèse vont au-delà des applications PTV, offrant des contributions potentielles aux systèmes complexes de traitement d'images en temps réel
Particle Tracking Velocimetry (PTV) represents a pivotal technique in the study of fluid dynamics, enabling the observation of flow fields, as well as the analysis and quantification of fluid movement and distribution in a given location. This thesis addresses the growing demand for real-time, high-speed PTV systems in increasingly complex environments by integrating advanced hardware architectures and system-level modeling techniques.The contribution of this thesis holds significant implications for both theoretical research and practical applications. The successful integration of system-level modeling with hardware architectures such as FPGAs and SoCs provides a blueprint for developing high-performance real-time systems in fields where low latency and high throughput are critical. Two distinct Model-Driven Engineering (MDE) approaches are examined in this research for PTV system: one based on the Reactive Process Network (RPN) model utilizing LabVIEW FPGA, and another leveraging System Modeling Language (SysML) for the application model paired with Open Computing Language (OpenCL) for platform execution. A formal RPN model provided a rigorous foundation for system analysis, facilitating the precise specification of component interactions within the system. The feasibility of the proposed methodologies was validated through the development and testing of the initial LabVIEW prototype. Building on this foundation, a SysML-based model was introduced and integrated with multi-SoC architectures, demonstrating substantial improvements in execution speed and scalability. Parallel processing architectures and methodologies are implemented to optimize system concurrency and throughput, which are crucial for meeting the demanding requirements of real-time PTV applications.The experimental results demonstrate that the system meets the specifications in terms of speed (frames per second) and the number of particles per image, while maintaining accuracy in tracking particle movements in large-scale airflow environments. In addition, the findings of this thesis extend beyond PTV applications, offering potential contributions to complex systems in real-time image processing
Style APA, Harvard, Vancouver, ISO itp.
22

Lemrabet, Youness. "Proposition d’une méthode de spécification d’une architecture orientée services dirigée par le métier dans le cadre d’une collaboration inter-organisationnelle". Thesis, Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0010/document.

Pełny tekst źródła
Streszczenie:
Les organisations contemporaines collaborent de plus en plus avec leurs partenaires. Cette dimension ouverte leur permet d’être plus réactives face aux changements que leur imposent leurs environnements. La caractéristique de la collaboration est due, pour les entreprises, au nouvel environnement économique, qui fait de l'interopérabilité et l'agilité deux des principaux résultats que les entreprises doivent atteindre. Ce contexte correspond au cadre global de nos travaux, qui porte sur la question suivante : Comment concevoir une architecture orientée services dirigée par le métier dans le cadre d’une collaboration inter-organisationnelle ?L’intérêt de ce travail est de proposer une méthode qui assure l’efficacité et l’efficience d’une collaboration, en utilisant les principes de BPM et SOA pour dépasser les barrières conceptuelle et technologique de l’interopérabilité. On explique comment identifier, spécifier et réaliser les processus et les services de collaboration entre différents participants. Pour cela, on adopte une vision transversale de l’entreprise centrée sur les processus métiers. Ensuite, l’approche MDA est utilisée comme un fil conducteur pour synchroniser les modèles des processus métiers découverts à l’aide de l’approche BPM avec ceux des services identifiés avec la démarche SOA. Dans ce schéma, les processus métiers assurent l’interopérabilité au niveau métier tandis que l’utilisation des services réutilisables, des standards et des architectures préconisés par SOA soutiennent l’interopérabilité au niveau IT.Cette méthode se base sur un style de modélisation hiérarchique avec des diagrammes de haut niveau qui sont ensuite enrichis à des niveaux plus bas
Global acceleration of exchanges in goods and services requires organizations to adopt an open view beyond their own boundaries at both business and technological levels. In the new economic environment enterprises must achieve both interoperability and agility. In this thesis the main research question is the following: How to design a service oriented architecture methodology driven by business to support inter-organizational collaboration?To overcome the conceptual and technological barriers of interoperability. We propose a top-down model driven method based on BPM and SOA principles to ensure collaboration efficiency and effectiveness. The proposed method explains how to identify, specify and implement collaborative processes and collaborative public services. In the proposed method business processes ensure interoperability at the business level, while reusable services, standards and SOA platform support interoperability at the IT level
Style APA, Harvard, Vancouver, ISO itp.
23

Ziani, Adel. "Modeling of Secure Dependable (S&D) applications based on patterns for Resource-Constrained Embedded Systems (RCES)". Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-00929836.

Pełny tekst źródła
Streszczenie:
Non-functional requirements such as Security and Dependability (S&D) become more and more important as well as more and more difficult to achieve, particularly in embedded systems development. Such systems come with a large number of common characteristics, including real-time and temperature constraints, security and dependability as well as efficiency requirements. In particular, the development of Resource Constrained Embedded Systems (RCES) has to address constraints regarding memory, computational processing power and/or energy consumption. In this work, we propose a modeling environment which associates model-driven paradigm and a model-based repository, to support the design and the packaging of S&D patterns, resource models and their property models. The approach is based on a set of modeling languages coupled with a model-repository, search and instantiation engines towards specific development environments. These modeling languages allow to specify patterns, resources and a set of property models. These property models will allow to govern the use of patterns and their analysis for reuse. In addition, we propose a specification and generation process of repositories. As part of the assistance for the development of S&D applications, we have implemented a suite of tool-chain based on the Eclipse platform to support the different activities around the repository, including the analysis activities. The proposed solutions were evaluated in the TERESA project through a case study from the railway domain.
Style APA, Harvard, Vancouver, ISO itp.
24

Khecharem, Amani. "MuVArch : une approche de méta-modélisation pour la représentation multi-vues des architectures hétérogènes embarqués". Thesis, Nice, 2016. http://www.theses.fr/2016NICE4019/document.

Pełny tekst źródła
Streszczenie:
Nous avons défini et réalisé avec l'approche MuVarch un environnement de (méta-)modélisation orientée vers la représentation multi-vues des architectures embarquées hétérogènes (de type "smartphone" par exemple). En plus de la vue architecturale de base, support de toutes les autres, on considère les vues "performance", "consommation", "température", ainsi que la vue fonctionnelle "applicative" pour fournir des scénarios comportementaux de fonctionnement de la plate-forme. Il était important de savoir décrire en MuVarch comment les vues se raccrochent à la vue de base architecturale, et comment elle se relient également entre elles (relation entre consommation énergétique et température par exemple). L'objectif ultime est d'utiliser ce framework multi-vues et les différentes informations apportées par chacune, pour savoir supporter des politiques alternatives de mapping/allocation des tâches applicatives sur les ressources de l'architecture (la définition de ces politiques restant extérieure à nos travaux de thèse). La représentation adéquate de cette relation d'allocation forme donc un des aspects importants de nos travaux
We introduced and realized with our MuVarch approach an heterogeneous (meta)modeling environment for multi-view representation of heterogeneous embedded architectures (of "smartphone" type for instance). In addition to the backbone architectural view supporting others, we considered performance, power, and thermal view. We introduced also the functional applicative view, to provide typical use cases for the architecture. It was important to describe in MuVarch our various views would connect to the basic one, and how they would mutually relate together as well (how temperature depends on power consumption for instance). The global objective was to let the framework consider alternative mapping/allocation strategies for applicative tasks on architectural resources (although the definition of such strategies themselves was out of the scope). The appropriate form of such an allocation relation, which may be quite involved, was thus an important aspect of this thesis
Style APA, Harvard, Vancouver, ISO itp.
25

Jaziri, Faouzi. "Conception et analyse des biopuces à ADN en environnements parallèles et distribués". Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22465/document.

Pełny tekst źródła
Streszczenie:
Les microorganismes constituent la plus grande diversité du monde vivant. Ils jouent un rôle clef dans tous les processus biologiques grâce à leurs capacités d’adaptation et à la diversité de leurs capacités métaboliques. Le développement de nouvelles approches de génomique permet de mieux explorer les populations microbiennes. Dans ce contexte, les biopuces à ADN représentent un outil à haut débit de choix pour l'étude de plusieurs milliers d’espèces en une seule expérience. Cependant, la conception et l’analyse des biopuces à ADN, avec leurs formats de haute densité actuels ainsi que l’immense quantité de données à traiter, représentent des étapes complexes mais cruciales. Pour améliorer la qualité et la performance de ces deux étapes, nous avons proposé de nouvelles approches bioinformatiques pour la conception et l’analyse des biopuces à ADN en environnements parallèles. Ces approches généralistes et polyvalentes utilisent le calcul haute performance (HPC) et les nouvelles approches du génie logiciel inspirées de la modélisation, notamment l’ingénierie dirigée par les modèles (IDM) pour contourner les limites actuelles. Nous avons développé PhylGrid 2.0, une nouvelle approche distribuée sur grilles de calcul pour la sélection de sondes exploratoires pour biopuces phylogénétiques. Ce logiciel a alors été utilisé pour construire PhylOPDb: une base de données complète de sondes oligonucléotidiques pour l’étude des communautés procaryotiques. MetaExploArrays qui est un logiciel parallèle pour la détermination de sondes sur différentes architectures de calcul (un PC, un multiprocesseur, un cluster ou une grille de calcul), en utilisant une approche de méta-programmation et d’ingénierie dirigée par les modèles a alors été conçu pour apporter une flexibilité aux utilisateurs en fonction de leurs ressources matériel. PhylInterpret, quant à lui est un nouveau logiciel pour faciliter l’analyse des résultats d’hybridation des biopuces à ADN. PhylInterpret utilise les notions de la logique propositionnelle pour déterminer la composition en procaryotes d’échantillons métagénomiques. Enfin, une démarche d’ingénierie dirigée par les modèles pour la parallélisation de la traduction inverse d’oligopeptides pour le design des biopuces à ADN fonctionnelles a également été mise en place
Microorganisms represent the largest diversity of the living beings. They play a crucial rôle in all biological processes related to their huge metabolic potentialities and their capacity for adaptation to different ecological niches. The development of new genomic approaches allows a better knowledge of the microbial communities involved in complex environments functioning. In this context, DNA microarrays represent high-throughput tools able to study the presence, or the expression levels of several thousands of genes, combining qualitative and quantitative aspects in only one experiment. However, the design and analysis of DNA microarrays, with their current high density formats as well as the huge amount of data to process, are complex but crucial steps. To improve the quality and performance of these two steps, we have proposed new bioinformatics approaches for the design and analysis of DNA microarrays in parallel and distributed environments. These multipurpose approaches use high performance computing (HPC) and new software engineering approaches, especially model driven engineering (MDE), to overcome the current limitations. We have first developed PhylGrid 2.0, a new distributed approach for the selection of explorative probes for phylogenetic DNA microarrays at large scale using computing grids. This software was used to build PhylOPDb: a comprehensive 16S rRNA oligonucleotide probe database for prokaryotic identification. MetaExploArrays, which is a parallel software of oligonucleotide probe selection on different computing architectures (a PC, a multiprocessor, a cluster or a computing grid) using meta-programming and a model driven engineering approach, has been developed to improve flexibility in accordance to user’s informatics resources. Then, PhylInterpret, a new software for the analysis of hybridization results of DNA microarrays. PhylInterpret uses the concepts of propositional logic to determine the prokaryotic composition of metagenomic samples. Finally, a new parallelization method based on model driven engineering (MDE) has been proposed to compute a complete backtranslation of short peptides to select probes for functional microarrays
Style APA, Harvard, Vancouver, ISO itp.
26

Gnimpieba, Zanfack David R. "Modélisation des flux logistiques : vers une plateforme d'interopérabilité des objets logistiques". Electronic Thesis or Diss., Amiens, 2017. http://www.theses.fr/2017AMIE0045.

Pełny tekst źródła
Streszczenie:
Ces travaux de recherche ont été réalisés dans le cadre du projet régional Com-SLoT (Communauté de Services Logistiques sur l'Internet des Objets) qui s'inscrit dans l'axe des "outils numériques pour la performance industrielle" (2013-2016). Com-SLoT vise à mettre en place une communauté de services pour la gestion des objets logistiques. Il s'agit précisément de récolter et de partager toutes les informations nécessaires à la planification, l'exécution et la coordination des flux. Le problème qui est posé dans cette thèse est la "Modélisation des flux logistiques : vers une plate-forme d'interopérabilité des objets logistiques". Le modèle de flux de marchandises que nous cherchons à modéliser a donc pour objectif et défi principal de faciliter le développement et la mise en place des systèmes de gestion collaboratives de flux de marchandises basés sur l'Internet des objets et les plateformes cloud Computing. Ce défi scientifique et technologique peut se décliner en sous objectifs comme suit : (1) Proposer un modèle générique de flux logistique centré sur l'entité logistique en tant qu'entité autonome et communicante. (2) Passer de l’échange au partage : Collecter les données sur l'entité et le flux logistique, stocker et partager ces données à l'ensemble des acteurs de la supply chain. (3) Gérer l'hétérogénéité des données et les droits d'accès pour l'interopérabilité des flux. (4) Intégrer le flux de marchandises avec les technologies de l'internet des objets et des plateformes Cloud. (5) Réaliser une vrai plateforme collaborative en mode SaaS : dans ce cadre, il est plus question d'architecture et d'intégration
This research project was carried out within the framework of the regional project COM-SLoT (Community of Logistics Services on the Internet of Things). This project is in the field of "Digital tools for industrial performance". COM-SLoT aims to set up a community of services for the management of logistics workflows and related business entities. It is a matter of collecting and sharing all information necessary for the planning, the execution and the coordination of workflows. The problem to solve in this thesis is the "Modeling of logistic flows : towards a platform for business entities interoperability". The workflow model we are going to seek therefore has as main goal and challenges to facilitate the design of collaborative management of workflows, based on Internet of Things and Cloud Computing technologies. This challenge can be broken down into sub-goals as follows : (1) Propose a generic workflow model focused on the logistics entity as an autonomous and communicating entity. (2) Switching from peer to peer (PoP) data exchange to information sharing : collecting data on entities and workflows, storing and sharing to supply chain stakeholders. (3) Manage data heterogeneity and access rights to enable workflow interoperability. (4) Integrate Internet of Things technologies in the business entities. (5) Design a SaaS based collaborative platform to overcome existing architectural failures
Style APA, Harvard, Vancouver, ISO itp.
27

Allon, Matthieu. "Ingénierie dirigée par les modèles basée sur les templates". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I051/document.

Pełny tekst źródła
Streszczenie:
Pour répondre à la complexité grandissante des systèmes, la réutilisation de modèles est employée dans les phases amont d’analyse et de conception. Dans cette thèse, nous nous intéressons à cette réutilisation en privilégiant les modèles paramétrés que sont les templates. Ceux-ci expriment des connaissances générales applicables à différents contextes. Sur la base des ‘aspectual templates’ possédant un modèle en paramètre, nous proposons une ingénierie dédiée. Celle-ci est structurée autour d’un dépôt de modèles et de deux espaces de conception : celui des templates et celui des modèles applicatifs, chaque espace supportant des activités de modélisation spécifiques. Nous contribuons à cette ingénierie en approfondissant trois axes. Tout d’abord, en examinant la relation ‘bind’ des templates UML, nous isolons l’instanciation comme opération de plein droit pour construire un modèle basé sur la structure du template. Les questions d’instanciation partielle et de séquences d’instanciation sont aussi examinées. Ensuite, pour répondre à des besoins d’évolution de modèles, nous proposons des opérateurs pour détecter et supprimer des templates dans un modèle. Enfin, nous étudions l’application de templates sur une hiérarchie de modèles dont les usages se rencontrent dans le versionnement et la modélisation en équipe. Pour faciliter ces usages, des règles définissant la validité de telles applications et leurs effets sur les relations entre leurs modèles résultats sont données. Nous appliquons cette ingénierie en proposant des opérateurs, leur mise en œuvre dans une technologie réutilisable et leur expérimentation en modélisant un serveur REST d’agrégation d’informations
Against the growing complexity of systems, model reuse is often used in the analysis and design steps of software development. In this thesis, we explore this kind of reuse by focusing on templates which are parameterized models. Templates capture general knowledge that can be adapted to various application contexts. On the basis of ‘aspectual templates’ which have a model as parameter, we propose a dedicated engineering. This one is structured around a model repository and two design spaces : one for templates one and another for application models, each space supporting specific modeling activities. We contribute to this engineering by studying three topics First, through the analysis of the UML ‘bind’ relationship, we isolate instantiation as a first-class operation to build a model based on the template structure. Questions about partial instantiation and instantiation sequences are further examined. Then, in order to ease model understanding and evolution, we provide operators for detecting and deleting templates inside models. Finally, we study the application of templates on model hierarchies which occurs in model versioning and team modeling. To facilitate these uses, rules defining the validity of such application and their effects on the relations between resulting models are given. We apply this engineering by presenting corresponding operators, their implementation in a reusable technology and their experimentation to model a REST server of data curation
Style APA, Harvard, Vancouver, ISO itp.
28

Gnimpieba, Zanfack David R. "Modélisation des flux logistiques : vers une plateforme d'interopérabilité des objets logistiques". Thesis, Amiens, 2017. http://www.theses.fr/2017AMIE0045/document.

Pełny tekst źródła
Streszczenie:
Ces travaux de recherche ont été réalisés dans le cadre du projet régional Com-SLoT (Communauté de Services Logistiques sur l'Internet des Objets) qui s'inscrit dans l'axe des "outils numériques pour la performance industrielle" (2013-2016). Com-SLoT vise à mettre en place une communauté de services pour la gestion des objets logistiques. Il s'agit précisément de récolter et de partager toutes les informations nécessaires à la planification, l'exécution et la coordination des flux. Le problème qui est posé dans cette thèse est la "Modélisation des flux logistiques : vers une plate-forme d'interopérabilité des objets logistiques". Le modèle de flux de marchandises que nous cherchons à modéliser a donc pour objectif et défi principal de faciliter le développement et la mise en place des systèmes de gestion collaboratives de flux de marchandises basés sur l'Internet des objets et les plateformes cloud Computing. Ce défi scientifique et technologique peut se décliner en sous objectifs comme suit : (1) Proposer un modèle générique de flux logistique centré sur l'entité logistique en tant qu'entité autonome et communicante. (2) Passer de l’échange au partage : Collecter les données sur l'entité et le flux logistique, stocker et partager ces données à l'ensemble des acteurs de la supply chain. (3) Gérer l'hétérogénéité des données et les droits d'accès pour l'interopérabilité des flux. (4) Intégrer le flux de marchandises avec les technologies de l'internet des objets et des plateformes Cloud. (5) Réaliser une vrai plateforme collaborative en mode SaaS : dans ce cadre, il est plus question d'architecture et d'intégration
This research project was carried out within the framework of the regional project COM-SLoT (Community of Logistics Services on the Internet of Things). This project is in the field of "Digital tools for industrial performance". COM-SLoT aims to set up a community of services for the management of logistics workflows and related business entities. It is a matter of collecting and sharing all information necessary for the planning, the execution and the coordination of workflows. The problem to solve in this thesis is the "Modeling of logistic flows : towards a platform for business entities interoperability". The workflow model we are going to seek therefore has as main goal and challenges to facilitate the design of collaborative management of workflows, based on Internet of Things and Cloud Computing technologies. This challenge can be broken down into sub-goals as follows : (1) Propose a generic workflow model focused on the logistics entity as an autonomous and communicating entity. (2) Switching from peer to peer (PoP) data exchange to information sharing : collecting data on entities and workflows, storing and sharing to supply chain stakeholders. (3) Manage data heterogeneity and access rights to enable workflow interoperability. (4) Integrate Internet of Things technologies in the business entities. (5) Design a SaaS based collaborative platform to overcome existing architectural failures
Style APA, Harvard, Vancouver, ISO itp.
29

Daniel, Gwendal. "Efficient persistence, query, and transformation of large models". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0049/document.

Pełny tekst źródła
Streszczenie:
L’Ingénierie Dirigée par les Modèles (IDM) est une méthode de développement logicielle ayant pour but d’améliorer la productivité et la qualité logicielle en utilisant les modèles comme artefacts de premiers plans durant le processus développement. Dans cette approche, les modèles sont typiquement utilisés pour représenter des vues abstraites d’un système, manipuler des données, valider des propriétés, et sont finalement transformés en ressources applicatives (code, documentation, tests, etc). Bien que les techniques d’IDM aient montré des résultats positifs lors de leurs intégrations dans des processus industriels, les études montrent que la mise à l’échelle des solutions existantes est un des freins majeurs à l’adoption de l’IDM dans l’industrie. Ces problématiques sont particulièrement importantes dans le cadre d’approches génératives, qui nécessitent des techniques efficaces de stockage, requêtage, et transformation de grands modèles typiquement construits dans un contexte mono-utilisateur. Plusieurs solutions de persistance, requêtage, et transformations basées sur des bases de données relationnelles ou NoSQL ont été proposées pour améliorer le passage à l’échelle, mais ces dernières sont souvent basées sur une seule sérialisation model/base de données, adaptée à une activité de modélisation particulière, mais peu efficace pour d’autres cas d’utilisation. Par exemple, une sérialisation en graphe est optimisée pour calculer des chemins de navigations complexes,mais n’est pas adaptée pour accéder à des valeurs atomiques de manière répétée. De plus, les frameworks de modélisations existants ont été initialement développés pour gérer des activités simples, et leurs APIs n’ont pas évolué pour gérer les modèles de grande taille, limitant les performances des outils actuels. Dans cette thèse nous présentons une nouvelle infrastructure de modélisation ayant pour but de résoudre les problèmes de passage à l’échelle en proposant (i) un framework de persistance permettant de choisir la représentation bas niveau la plus adaptée à un cas d’utilisation, (ii) une solution de requêtage efficace qui délègue les navigations complexes à la base de données stockant le modèle,bénéficiant de ses optimisations bas niveau et améliorant significativement les performances en terme de temps d’exécution et consommation mémoire, et (iii) une approche de transformation de modèles qui calcule directement les transformations au niveau de la base de données. Nos solutions sont construites en utilisant des standards OMG tels que UML et OCL, et sont intégrées dans les solutions de modélisations majeures telles que ATL ou EMF
The Model Driven Engineering (MDE) paradigm is a softwaredevelopment method that aims to improve productivity and software quality by using models as primary artifacts in all the aspects of software engineering processes. In this approach, models are typically used to represent abstract views of a system, manipulate data, validate properties, and are finally transformed to application artifacts (code, documentation, tests, etc). Among other MDE-based approaches, automatic model generation processes such as Model Driven Reverse Engineering are a family of approaches that rely on existing modeling techniques and languages to automatically create and validate models representing existing artifact. Model extraction tasks are typically performed by a modeler, and produce a set of views that ease the understanding of the system under study. While MDE techniques have shown positive results when integrated in industrial processes, the existing studies also report that scalability of current solutions is one of the key issues that prevent a wider adoption of MDE techniques in the industry. This isparticularly true in the context of generative approaches, that require efficient techniques to store, query, and transform very large models typically built in a single-user context. Several persistence, query, and transformation solutions based on relational and NoSQL databases have been proposed to achieve scalability, but they often rely on a single model-to-database mapping, which suits a specific modeling activity, but may not be optimized for other use cases. For example a graph-based representation is optimized to compute complex navigation paths, but may not be the best solution for repeated atomic accesses. In addition, low-level modeling framework were originally developed to handle simple modeling activities (such as manual model edition), and their APIs have not evolved to handle large models, limiting the benefits of advance storage mechanisms. In this thesis we present a novel modeling infrastructure that aims to tackle scalability issues by providing (i) a new persistence framework that allows to choose the appropriate model-to-database mapping according to a given modeling scenario, (ii) an efficient query approach that delegates complex computation to the underlying database, benefiting of its native optimization and reducing drastically memory consumption and execution time, and (iii) a model transformation solution that directly computes transformations in the database. Our solutions are built on top of OMG standards such as UML and OCL, and are integrated with the de-facto standard modeling solutions such as EMF and ATL
Style APA, Harvard, Vancouver, ISO itp.
30

Hacid, Kahina. "Handling domain knowledge in system design models. An ontology based approach". Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20157/7/HACID_kahina.pdf.

Pełny tekst źródła
Streszczenie:
Complex systems models are designed in heterogeneous domains and this heterogeneity is rarely considered explicitly when describing and validating processes. Moreover, these systems usually involve several domain experts and several design models corresponding to different analyses (views) of the same system. However, no explicit information regarding the characteristics neither of the domain nor of the performed system analyses is given. In our thesis, we propose a general framework offering first, the formalization of domain knowledge using ontologies and second, the capability to strengthen design models by making explicit references to the domain knowledgeformalized in these ontology. This framework also provides resources for making explicit the features of an analysis by formalizing them within models qualified as ‘’points of view ‘’. We have set up two deployments of our approach: a Model Driven Engineering (MDE) based deployment and a formal methods one based on proof and refinement. This general framework has been validated on several no trivial case studies issued from system engineering.
Style APA, Harvard, Vancouver, ISO itp.
31

Fertier, Audrey. "Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2018. http://www.theses.fr/2018EMAC0009/document.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise
The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers
Style APA, Harvard, Vancouver, ISO itp.
32

Pimenta, Paulo. "Application of model-driven engineering to multi-agent systems : a language to model behaviors of reactive agents". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS031/document.

Pełny tekst źródła
Streszczenie:
Des nombreux utilisateurs des systèmes multi-agents (SMA) sont très souvent découragés de modéliser et simuler dans les plates-formes actuelles SMA. Plus précisément, modéliser la dynamique d'un système (en particulier les comportements de l'agent) est très souvent vu comme un défi pour les utilisateurs de SMA. Dans le domaine des systèmes socio-écologiques (SES), cet inconvénient est plus souvent observé une fois que les experts de domaine en SES sont rarement des programmeurs. De plus, la majorité des plateformes SMA n'a pas été conçue en prenant en considérant le fait que les experts de domaines ne sont pas des programmeurs. On constate que la majeure partie des outils MAS ne sont pas dédiés à SES, ou qu'ils ne possèdent pas un formalisme compréhensible pour représenter les comportements de SMA. En outre, comme ces outils sont dépendant des plateformes, un modèle réalisé dans une plateforme SMA ne peut pas être correctement utilisé dans une autre plate-forme en raison de l'incompatibilité entre ces plateformes SMA. Afin de surpasser ces limitations, nous proposons un langage dédié au domaine SES pour décrire les comportements des agents réactifs, quelle que soit la plate-forme utilisée pour la simulation des SMA. Pour ce faire, nous avons appliqué l’approche de l’ingénierie dirigée par les modèles (IDM), une approche qui fournit des outils pour développer des langages dédiés à partir d'un méta-modèle (syntaxe abstraite), des éditeurs textuels avec coloration syntaxique (pour la syntaxe concrète) et des outils des générateurs de code (pour la génération de source code à partir d'un modèle). En conséquence, nous avons mis en œuvre un langage et un éditeur de texte qui permet à des experts du domaine SES de décrire les comportements de trois manières différentes qui sont fermées à leur expression naturelle : sous forme d'équations quand ils sont familiers avec celles-ci, en tant que séquence d'activités proche du langage naturel ou comme un diagramme d'activité pour représenter les décisions et une séquence de comportements en utilisant un formalisme graphique. Pour montrer la généralité, nous avons également développé des générateurs de code ciblant deux plates-formes différentes SMA (Cormas et Netlogo). Nous avons testé les générateurs de code en mettant en œuvre deux modèles SES avec le langage dédié développé. Le code généré obtenu a été généré pour les deux plates-formes SMA Cormas et NetLogo, et simulé avec succès dans un des deux plateformes. Nous avons conclu que l'approche IDM fournit des outils adéquats à développer des langages dédiés et des générateurs de code pour faciliter la modélisation et la simulation SMA par des non-programmeurs. En ce qui concerne le langage développé, bien que l’aspect comportemental de la simulation MAS fasse partie de la complexité de la modélisation en SMA, il y a encore d'autres aspects essentiels du modèle et de la simulation de SMA qui sont encore à être explorés, tels que l'initialisation et les points de vue sur un le monde simulé d’un modèle
Many users of multi-agent systems (MAS) are very commonly discouraged to model and simulate using current MAS platforms. More specifically, modeling the dynamics of a system (in particular the agent's behaviors) is very often a challenge to users of MAS. That issue is more often observed in the domain of socio-ecological systems (SES), because SES domain experts are rarely programmers. Indeed,the majority of MAS platforms were not conceived taking into consideration domain-experts that are non-programmers. Most of the current MAS tools are not dedicated to SES, or they do not possess an easily understandable formalism to represent behaviors of agents. Moreover, because it is platform-dependent, a model realized in a MAS platform cannot be properly used in another platform due to incompatibility between MAS platforms. To overcome these limitations, we propose a domain-specific language (DSL) to describe the behaviors of reactive agents, regardless of the MAS platform used for simulation. To achieve that, we applied model-driven engineering (MDE), an approach that provides tools to develop DSLs from a meta-model (abstract syntax), textual editors with syntax highlighting (for the concrete syntax) and code generation capabilities (for source-code generation of a model). As a result, we implemented a language and a textual editor that allows SES domain experts to describe behaviors in three different ways that are closed to their natural expression: as equations when they are familiar to those, as a sequence of activities close to natural language or as an activity diagram to represent decisions and a sequence of behaviors using a graphic formalism. To show the generality we also developed code generators targeting two different MAS platforms (Cormas and Netlogo). We tested the code generators by implementing two SES models with the developed DSL. The generated code was targeted for both MAS platforms (Cormas and Netlogo), and successfully simulated in one of them.We conclude that the MDE approach provides adequate tools to develop DSL and code generators to facilitate MAS modeling and simulation by non-programmers. Concerning the developed DSL, although the behavioral aspect of MAS simulation is part of the complexity of modeling in MAS, there are still other essential aspects of model and simulation of MAS that are yet to be explored, such as model's initialization and points of view on the model's simulated world
Style APA, Harvard, Vancouver, ISO itp.
33

Steel, James Richard Heron. "Typage de Modèles". Rennes 1, 2007. https://tel.archives-ouvertes.fr/tel-00538274.

Pełny tekst źródła
Streszczenie:
L'Ingénierie dirigée par les modèles est une approche pour la construction de systèmes fondées sur l'utilisation de modèles. Malgré une recherche très active sur les technologies d'IDM et leur application, il existe relativement peu de travaux sur la réutilisation et la composition fiable des éléments qui manipulent des modèles. Cette thèse présente une approche fondée sur les idées et formalismes du domaine des systèmes de types, pour définir des notions claires de modèles et de types de modèles, ainsi qu'une relation pour la substitution des types de modèles. Ces principes du typage de modèles ont été validés par leur application dans le langage de méta-modélisation Kermeta. De plus, la thèse revisite le problème de l'extensibilité des langages sous l'angle de l'ingénierie dirigée par les modèles, et elle détaille comment les types de modèles en résolvent certains aspects
Model-Driven Engineering is a discipline for the construction of systems based on the use of models. Although research is active into the use of MDE and its core technologies such as languages for storing, transforming and manipulating models, less attention has been paid to techniques for ensuring the safe reuse and composition of the elements which manipulate models. This thesis presents an approach based on ideas and formalisms from the domain of type systems for defining clear notions of models and model types, as well as a relation for model type substitutability. These model typing principles are demonstrated through their implementation in the Kermeta modelling and metamodelling language. Additionally, a presentation is made of the expression problem as it pertains to model-driven engineering, and of how the use of model types can help to address the issues it represents
Style APA, Harvard, Vancouver, ISO itp.
34

Didonet, del Fabro Marcos. "Gestion de métadonnées utilisant tissage et transformation de modèles". Nantes, 2007. http://www.theses.fr/2007NANT2039.

Pełny tekst źródła
Streszczenie:
L’interaction et l’interopérabilité entre différentes sources de données sont une préoccupation majeure dans plusieurs rganisations. Ce problème devient plus important encore avec la multitude de formats de données, APIs et architectures existants. L’ingénierie dirigée par modèles (IDM) est un paradigme relativement nouveau qui permet de diminuer ces problèmes d’interopérabilité. L’IDM considère toutes les entités d’un système comme un modèle. Les plateformes IDM sont composées par des types de modèles différents. Les modèles de transformation sont des acteurs majeurs de cette approche. Ils sont utilisés pour définir des opérations entre modèles. Par contre, il y existe d’autres types d’interactions qui sont définies sur la base des liens. Une solution d’IDM complète doit supporter des différents types de liens. Les recherches en IDM se sont centrées dans l’étude des transformations de modèles. Par conséquence, il y a beaucoup de travail concernant différents types des liens, ainsi que leurs implications dans une plateforme IDM. Cette thèse étudie des formes différentes de liens entre les éléments de modèles différents. Je montre, à partir d’une étude des nombreux travaux existants, que le point le plus critique de ces solutions est le manque de généricité, extensibilité et adaptabilité. Ensuite, je présente une solution d’IDM générique pour la gestion des liens entre les éléments de modèles. La solution s’appelle le tissage de modèles. Le tissage de modèles propose l’utilisation de modèles de tissage pour capturer des types différents de liens. Un modèle de tissage est conforme à un étamodèle noyau de tissage. J’introduis un ensemble des définitions pour les modèles de tissage et concepts liés. Ensuite, je montre comment les modèles de tissage et modèles de transformations sont une solution générique pour différents problèmes d’interopérabilité des données. Les modèles de tissage sont utilisés pour générer des modèles de transformations. Ensuite, je présente un outil adaptive et générique pour la création de modèles de tissage. L’approche sera validée en implémentant un outil de tissage appelé AMW (ATLAS Model Weaver). Cet outil sera utilisé comme solution de base pour différents cas d’applications
The interaction and interoperability between different data sources is a major concern in many organizations. The different formats of data, APIs, and architectures increases the incompatibilities, in a way that interoperability and interaction between components becomes a very difficult task. Model driven engineering (MDE) is a paradigm that enables diminishing interoperability problems by considering every entity as a model. MDE platforms are composed of different kinds of models. Some of the most important kinds of models are transformation models, which are used to define fixed operations between different models. In addition to fixed transformation operations, there are other kinds of interactions and relationships between models. A complete MDE solution must be capable of handling different kinds of relationships. Until now, most research has concentrated on studying transformation languages. This means additional efforts must be undertaken to study these relationships and their implications on a MDE platform. This thesis studies different forms of relationships between models elements. We show through extensive related work that the major limitation of current solutions is the lack of genericity, extensibility and adaptability. We present a generic MDE solution for relationship management called model weaving. Model weaving proposes to capture different kinds of relationships between model elements in a weaving model. A weaving model conforms to extensions of a core weaving metamodel that supports basic relationship management. After proposing the unification of the conceptual foundations related to model weaving, we show how weaving models and transformation models are used as a generic approach for data interoperability. The weaving models are used to produce model transformations. Moreover, we present an adaptive framework for creating weaving models in a semi-automatic way. We validate our approach by developing a generic and adaptive tool called ATLAS Model Weaver (AMW), and by implementing several use cases from different application scenarios
Style APA, Harvard, Vancouver, ISO itp.
35

Feuto, Njonko Paul Brillant. "Langage contrôlé pour la spécification des règles métier dans le contexte de la modélisation des systèmes d'information". Thesis, Besançon, 2014. http://www.theses.fr/2014BESA1018/document.

Pełny tekst źródła
Streszczenie:
Notre thèse s’inscrit dans le cadre des langages contrôlés pour le génie logiciel. Elle a pour but de faciliter l’adoption de l’approche par règles métier (ARM) par les entreprises en créant un langage contrôlé en vue d’aider à la spécification des règles métier par les experts métier. Notre solution va permettre de réduire la distance sémantique entre les experts métier et les experts système afin de répondre non seulement au besoin d’intercompréhension entre ces derniers mais aussi pour réaliser un transfert automatique de la description des règles métier vers les systèmes d’information (SI). Ce langage contrôlé que nous avons créé permettra d’assurer en plus la consistance et la traçabilité de ces règles avec leur implantation
Our thesis focuses on controlled natural languages (CNL) for software engineering. It aims at facilitating the adoption of the business rule approach (BRA) by companies by creating a CNL in order to help business experts in the specification of their business rules. Our solution will allow reducing the semantic gap between business experts and system experts to meet not only the need for mutual understanding between them but also to achieve an automatic transfer of the description of business rules to information systems (IS). The CNL that we have created will also ensure the consistency and the traceability of these rules together with their implementation
Style APA, Harvard, Vancouver, ISO itp.
36

Bruneliere, Hugo. "Generic Model-based Approaches for Software Reverse Engineering and Comprehension". Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4040/document.

Pełny tekst źródła
Streszczenie:
De nos jours, les entreprises font souvent face à des problèmes de gestion, maintenance, évolution ou remplacement de leurs systèmes logiciel existants. La Rétro-Ingénierie est la phase requise d’obtention de diverses représentations de ces systèmes pour une meilleure compréhension de leurs buts / états.L’Ingénierie Dirigée par les Modèles (IDM) est un paradigme du Génie Logiciel reposant sur la création, manipulation et utilisation intensive de modèles dans les tâches de conception, développement, déploiement, intégration, maintenance et évolution. La Rétro-Ingénierie Dirigée par les Modèles (RIDM) a été proposée afin d’améliorer les approches de Rétro-Ingénierie traditionnelles. Elle vise à obtenir des modèles à partir d’un système existant, puis à les fédérer via des vues cohérentes pour une meilleure compréhension.Cependant, les solutions existantes sont limitées car étant souvent des intégrations spécifiques d’outils. Elles peuvent aussi être (très) hétérogènes, entravant ainsi leurs déploiements. Il manque donc de solutions pour que la RIDM puisse être combinée avec des capacités de vue / fédération de modèles.Dans cette thèse, nous proposons deux approches complémentaires, génériques et extensibles basées sur les modèles ainsi que leurs implémentations en open source basées sur Eclipse-EMF : (i) Pour faciliter l’élaboration de solutions de RIDM dans des contextes variés, en obtenant différents types de modèles à partir de systèmes existants (e.g. leurs codes source, données). (ii) Pour spécifier, construire et manipuler des vues fédérant différents modèles (e.g. résultant de la RIDM) selon des objectifs de compréhension (e.g. pour diverses parties prenantes)
Nowadays, companies face more and more the problem of managing, maintaining, evolving or replacing their existing software systems. Reverse Engineering is the required phase of obtaining various representations of these systems to provide a better comprehension of their purposes / states.Model Driven Engineering (MDE) is a Software Engineering paradigm relying on intensive model creation, manipulation and use within design, development, deployment, integration, maintenance and evolution tasks. Model Driven Reverse Engineering (MDRE) has been proposed to enhance traditional Reverse Engineering approaches via the application of MDE. It aims at obtaining models from an existing system according to various aspects, and then possibly federating them via coherent views for further comprehension.However, existing solutions are limited as they quite often rely on case-specific integrations of different tools. Moreover, they can sometimes be (very) heterogeneous which may hinder their practical deployments. Generic and extensible solutions are still missing for MDRE to be combined with model view / federation capabilities.In this thesis, we propose to rely on two complementary, generic and extensible model-based approaches and their Eclipse/EMF-based implementations in open source: (i) To facilitate the elaboration of MDRE solutions in many different contexts, by obtaining different kinds of models from existing systems (e.g. their source code, data). (ii) To specify, build and manipulate views federating different models (e.g. resulting from MDRE) according to comprehension objectives (e.g. for different stakeholders)
Style APA, Harvard, Vancouver, ISO itp.
37

Lardy, Romain. "Calcul intensif pour l'évaluation de la vulnérabilité en utilisant une approche d'Ingénierie Dirigée par les Modèles : application à la vulnérabilité des prairies au changement climatique sous contraintes de plans d'expériences". Thesis, Clermont-Ferrand 2, 2013. http://www.theses.fr/2013CLF22352/document.

Pełny tekst źródła
Streszczenie:
La vulnérabilité est le degré de stress ou de perturbation qu’un système humain et environnemental est capable de supporter avant d’être endommagé. Au cours des dernières années, c’est devenu un sujet central de l’étude du changement global (incluant le changement climatique), et l’évaluation de la vulnérabilité des agro-écosystèmes aux changements climatiques s’inscrit en effet dans les axes prioritaires de l’Institut National de la Recherche Agronomique (INRA). La littérature sur le changement climatique contient de nombreuses explications de la vulnérabilité, basée sur la notion de sensibilité et faisant éventuellement appel à des idées plus complexes, depuis la prise en compte de l’exposition jusqu’aux impacts résiduels du changement climatique après mise en place de mesures d’adaptation. Dans le cadre des activités de l’Unité de Recherche sur les Ecosystèmes Prairiaux (UREP), l’intérêt porte sur la vulnérabilité des systèmes prairiaux et d’élevage face aux risques de réduction de la production laitière et herbagère, ainsi que la problématique de l’augmentation des émissions de gaz à effet de serre qui accompagne la production des services d’un écosystème prairial.Compte-tenu du fait que l’analyse de vulnérabilité s’apparente à une forme d’analyse de sensibilité et de la cascade d’incertitudes lors des évaluations des impacts du changement climatique, un grand nombre de simulations sont nécessaires. Dans ce cadre, afin de réduire le temps d’attente utilisateur, la conception d’un plan expérimental approprié est nécessaire, ainsi que l’utilisation du calcul à haute performance. De plus, l’analyse de vulnérabilité peut se composer de nombreuses étapes parmi lesquelles on trouve la conception (choix du modèle agro-écologique, des variables d’intérêt, des scénarii et des seuils de référence, la distribution des paramètres, …), la génération de plans expérimentaux, la création de surfaces de réponse, le calcul de métriques (par exemple des indices de vulnérabilité) et l’optimisation (à travers la conception et l’évaluation de mesures d’adaptation) de la vulnérabilité. À notre connaissance, aucun outil spécifique n’a été conçu ou validé dans le but de faciliter l’exécution de la majeure partie des tâches énoncées précédemment. Ainsi, la problématique de cette thèse a été de proposer une méthode générique pour la réalisation d’une analyse de vulnérabilité sous changement climatique. Le travail réalisé dans cette thèse a donc commencé par une révision du concept de vulnérabilité et la proposition d’une démarche générique, en s’appuyant sur une synthèse critique des notions de l’état de l’art. Ensuite, avec une approche d’Ingénierie Dirigée par les Modèles, nous avons conçu un outil informatique pour l’analyse de vulnérabilité. Cet outil, implémenté avec le cadriciel Eclipse Modeling Framework (EMF),est générique, modulaire et permet la distribution et l’interprétation des simulations. Enfin,des exemples applicatifs d’analyse de vulnérabilité au changement climatique ont été réalisés à l’aide des solutions proposées précédemment. Cette démarche s’est notamment appuyée sur l’utilisation du modèle biogéochimique d’écosystème prairial PaSim ([Riedo et al., 1998], [Vuichard 2007a], [Graux 2011])
Vulnerability is the degree to which human or environmental systems are likely toexperience harm due to a perturbation or a stress. In the last years, it has become a centralfocus of the global change (including climate change). Assessing the vulnerability of agroecosystemsto climate change is one of the priority areas of the French National Institute ofAgronomic Research (INRA). The climate change literature contains many explanations ofvulnerability, stemming from the notion of sensitivity to more complex ideas, yet takinginto account the exposure history of the system up to residual impacts of climate changeafter adaptation. In the framework of the activities of the INRA’s Grassland EcosystemResearch Unit (UREP) of Clermont-Ferrand, interest is on vulnerability of grassland andlivestock systems against the risk of reduced milk and forage production, and against theproblem of increased greenhouse gas emissions that comes with the production ofgrassland ecosystem services.Vulnerability assessment has similarities with sensitivity analysis and is based onsimulations of the target system, forced to respond to the changes of stress factors. Due tothe cascade of uncertainties in climate change impacts assessment, a large number ofsimulations are necessary. In this context, the need to reduce user waiting time calls for theconception of an appropriate experimental plan, as well as the use of high performancecomputing. Moreover, vulnerability assessment may consist of many steps, such asdesigning the experiment (choice of agro-ecological model, variables of interest, scenarios,reference thresholds, parameters distribution …), designing of the experimental plans,regressing response surfaces, computing metrics (e.g. vulnerability indices) and optimizingvulnerability (through designing and evaluating adaptation measures). To our knowledge,no specific tool has been built or validated, in order to facilitate the implementation ofmost of these tasks. Thus, the goal of this thesis was to propose a generic method toperform a comprehensive vulnerability analysis to climate change. The work in this thesishas begun with a review of the concept of vulnerability and the proposal of a genericapproach, based on a critical synthesis of the state of the art. Then, with a Model DrivenEngineering approach, we have developed a computer tool for vulnerability analysis. Thistool, implemented with the modelling framework Eclipse Modeling Framework (EMF) isgeneric, modular and allows the distribution and interpretation of simulation results.Finally, application examples of climate change vulnerability assessment were achievedwith the previously proposed solutions. This approach relied, in particular, on the use ofthe grassland ecosystem biogeochemical model PaSim ([Riedo et al., 1998], [Vuichard2007a], [Graux 2011])
Style APA, Harvard, Vancouver, ISO itp.
38

Gherbi, Tahar. "Une démarche d'ingénierie dirigée par les modèles pour le développement d'applications mobiles". Lorient, 2014. http://www.theses.fr/2014LORIS331.

Pełny tekst źródła
Streszczenie:
Les agents mobiles facilitent l’implémentation d’applications dynamiquement adaptables et constituent un cadre générique pour le développement d’applications réparties sur de grands réseaux. Des applications basées sur les agents mobiles sont en cours d'élaboration dans les milieux industriels, gouvernementaux et universitaires ; et des experts prévoient l’usage des agents mobiles dans plusieurs applications d’Internet dans les prochaines années. Généralement, le développement des applications d’agents mobiles s’effectue sans considérer en amont l’aspect « mobilité » dans les phases d’analyse et de conception. La mobilité est souvent traitée dans la phase d’implémentation. La faire remonter vers les phases d’analyse et de conception, permet de mieux concevoir ce type d’applications. Cependant, peu de travaux de recherche ont porté sur les méthodes et outils d’analyse et de conception des applications à agents mobiles. Selon la littérature, la modélisation de ces applications se fait selon trois approches: l'approche par patrons de conception, l'approche formelle et l'approche semi formelle, où l’on distingue les formalismes étendant des notations d’UML et les approches étendant une méthodologie de développement de Systèmes Multi-Agents (SMA). Puisque les SMA sont pertinents dans la conception des applications, nous nous intéressons à étendre une méthodologie de SMA pour supporter la mobilité. D’un autre coté, l’ingénierie des modèles (IDM) aide à réduire le fossé entre les méthodologies de SMA, dont la majorité n’inclut pas la phase d’implémentation, et les plateformes d’exécution. Elle facilite aussi le déplacement des agents mobiles entre des plateformes hétérogènes en transférant le modèle de l’agent plutôt que son code. Par conséquent, notre travail consiste, plus exactement, à faire remonter l’aspect « mobilité » vers la phase de conception et à proposer une approche d’IDM pour développer des systèmes multiagents supportant la mobilité. De nombreuses méthodologies de développement de SMA existent. Aucune n’est universelle et il n’existe pas de méta-modèle standard de conception de SMA ; C'est pourquoi nous avons cherché un méta-modèle qui soit simple, modulaire, général et évolutif. Notre choix s’est porté sur le métamodèle conceptuel de la méthode MDAD (Model Driven Agent Development) que nous avons étendu pour supporter la mobilité et faire de lui le PIMM (Platform Independent Meta-Model) de notre approche. Pour illustrer cette dernière, un exemple d’application "Recherche de localisations d’un livre à travers un réseau" a été développé (de la modélisation jusqu’à la génération de code). JavAct, une plateforme d’exécution d’agents mobiles, a été utilisée, un PSMM (Platform Specific Meta-Model) lui a été construit et des règles de transformations (PIMM-vers-PSMM) et de génération de code depuis les PSM obtenus ont été élaborées
Mobile agents facilitate the implementation of dynamically adaptable applications and provide a generic framework to develop distributed applications on large networks. Applications based on mobile agents are being developed in industry, government and academia; and experts predict the use of mobile agents in many Internet applications in the coming years. Generally, the development of mobile-agents applications is done without considering the "mobility" aspect in the analysis and design phases; this aspect is often treated at the implementation phase. Considering it earlier (i. E. , in the analysis and design phases), allows for a better design of this kind of applications. However, little research has focused on methods and tools of analysis and design of mobiles-agents applications. According to literature, modeling these applications can be done with three approaches: design patterns approach, formal approach and semi formal approach which includes formalisms extending Unified Modeling Language notations and approaches extending a multi-agents systems development methodology. Because multi-agents systems are relevant to design applications, we are interested in extending a multi-agents systems development methodology to support mobility. On another hand, model driven engineering helps to reduce the gap between multi-agents systems development methodologies (as the majority does not include an implementation phase) and runtime platforms. It also facilitates the moves of mobiles-agents across heterogeneous platforms, by transferring the agent’s model rather than its code. Consequently, this work considers "mobility" in the design phase and proposes a model driven engineering approach to develop multi-agents systems supporting mobility. Many multi-agents systems development methodologies exist. None is universal and there is no standard meta-model to design multi-agents systems; it is why we have looked for a meta-model which is simple, modular, general and scalable. Our choice fell on the conceptual meta- model of MDAD (Model Driven Agent Development) methodology which we extended to support mobilityand used it as the PIMM (Platform Independent Meta -Model) of our approach. To illustrate this latter, an application example “Find locations of a book through a network” has been developed (from modeling to code generation). JAVACT, a runtime platform for mobile agents, was used, a PSMM (Platform Specific Meta -Model) was built for it and rules for (PIMM-to-PSMM) transformation and code generation from the PSM obtained have been developed
Style APA, Harvard, Vancouver, ISO itp.
39

Aboussoror, El Arbi. "Méthodes de diagnostic avancées dans la validation formelle des modèles". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2063/.

Pełny tekst źródła
Streszczenie:
Malgré l'existence d'un nombre important d'approches et outils de vérification à base de modèles, leur utilisation dans l'industrie reste très limitée. Parmi les raisons qui expliquent ce décalage il y a l'exploitation, aujourd'hui difficile, des résultats du processus de vérification. Dans cette thèse, nous étudions l'utilisation des outils de vérification dans les processus actuels de modélisation de systèmes qui utilisent intensivement la validation à base de modèles. Nous établissons ensuite les limites des approches existantes, surtout en termes d'utilisabilité. A partir de cette étude, nous analysons les causes de l'état actuel des pratiques. Nous proposons une approche complète et outillée d'aide au diagnostic d'erreur qui améliore l'exploitation des résultats de vérification, en introduisant des techniques mettant à profit la visualisation d'information et l'ergonomie cognitive. En particulier, nous proposons un ensemble de recommandations pour la conception d'outils de diagnostic, un processus générique adaptable aux processus de validation intégrant une activité de diagnostic, ainsi qu'un framework basé sur les techniques de l'Ingénierie Dirigée par les Modèles (IDM) permettant une implémentation et une personnalisation rapide de visualisations. Notre approche a été appliquée à une chaîne d'outils existante, qui intègre la validation de modèles UML et SysML de systèmes temps réel critiques. Une validation empirique des résultats a démontré une amélioration significative de l'utilisabilité de l'outil de diagnostic, après la prise en compte de nos préconisations
A plethora of theoretical results are available which make possible the use of dynamic analysis and model-checking for software and system models expressed in high-level modeling languages like UML, SDL or AADL. Their usage is hindered by the complexity of information processing demanded from the modeller in order to apply them and to effectively exploit their results. Our thesis is that by improving the visual presentation of the analysis results, their exploitation can be highly improved. To support this thesis, we define a diagnostic trace analysis approach based on information visualisation and human factors techniques. This approach offers the basis for new types of scenario visualizations, improving diagnostic trace understanding. Our contribution was implemented in an existing UML/SysML analyzer and was validated in a controlled experiment that shows a significant increase in the usability of our tool, both in terms of task performance speed and in terms of user satisfaction. The pertinence of our approach is assessed through an evaluation, based on well-established evaluation mechanisms. In order to perform such an evaluation, we needed to adapt the notion of usability to the context of formal methods usability, and to adapt the evaluation process to our setting. The goal of this experiment was to see whether extending analysis tools with a well-designed event-based visualization would significantly improve analysis results exploitation and the results are meeting our expectations
Style APA, Harvard, Vancouver, ISO itp.
40

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'ingénierie dirigée par les modèles". Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0151.

Pełny tekst źródła
Streszczenie:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes telle que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basé sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO
Collaborative work involves many teams member which must share and exchange information about the product while working with various business tools. The complex process of product design requires the use of heterogeneous tools such as CAD and CAM too1. Our work of thesis proposes an approach based on the Model Driven Architecture (MDA) for the interoperability of business tools. Ln this work we use the PPO model (Product Process Organization) as a federation mode! for information exchange. This work describes how we structure the synchronization between heterogeneous business tools. A case study is applied to EspritTM CAM tool enabling EspritTM to interoperate with the SolidWorksTM CAD tool throughout the PPO collaborative environment
Style APA, Harvard, Vancouver, ISO itp.
41

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'Ingénierie Dirigée par les Modèles". Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00580737.

Pełny tekst źródła
Streszczenie:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes tels que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basée sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO.
Style APA, Harvard, Vancouver, ISO itp.
42

Zalila, Faiez. "Methods and tools for the integration of formal verification in domain-specific languages". Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/14159/1/zalila.pdf.

Pełny tekst źródła
Streszczenie:
Domain specific Modeling Languages (DSMLs) are increasingly used at the early phases in the development of complex systems, in particular, for safety critical systems. The goal is to be able to reason early in the development on these models and, in particular, to fulfill verification and validation activities (V and V). A widely used technique is the exhaustive behavioral model verification using model-checking by providing a translational semantics to build a formal model from DSML conforming models in order to reuse powerful tools available for this formal domain. Defining a translational semantics, expressing formal properties to be assessed and analysing such verification results require such an expertise in formal methods that it restricts their adoption and may discourage the designers. It is thus necessary to build for each DSML, a toolchain which hides formal aspects for DSML end-users. The goal of this thesis consists in easing the development of such verification toolchains. Our contribution includes 1) expressing behavioral properties in the DSML level by relying on TOCL (Temporal Object Constraint Language), a temporal extension of OCL; 2) An automated transformation of these properties on formal properties while reusing the key elements of the translational semantics; 3) the feedback of verification results thanks to a higher-order transformation and a language which defines mappings between DSML and formal levels; 4) the associated process implementation. Our approach was validated by the experimentation on a subset of the development process modeling language SPEM, and on Ladder Diagram language used to specify programmable logic controllers (PLCs), and by the integration of a formal intermediate language (FIACRE) in the verification toolchain. This last point allows to reduce the semantic gap between DSMLs and formal domains.
Style APA, Harvard, Vancouver, ISO itp.
43

Vandenbussche, Pierre-Yves. "Définition d'un cadre formel de représentation des Systèmes d'Organisation de la Connaissance". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00642545.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse, réalisé au sein de l'entreprise MONDECA et du laboratoire de recherche INSERM, est né du besoin de disposer d'un serveur capable de supporter le processus éditorial de Systèmes d'Organisation de Connaissances (SOC) et soulève la problématique suivante: comment harmoniser la représentation des SOC et de leurs correspondances afin de proposer des services unifiés qui supportent l'édition, la publication et l'utilisation efficaces des connaissances de ces référentiels? Pour répondre à cette problématique, nous soutenons la thèse que l'élaboration d'un modèle de représentation commune de SOC est une solution adaptée pour (i) pallier l'hétérogénéité de ces référentiels, (ii) favoriser l'interopérabilité sémantique au sein d'un Système d'Information et (iii) proposer des services unifiés quel que soit le SOC. Nous utilisons pour cela des méthodes propres à l'Ingénierie des Connaissances couplées à celles de l'Ingénierie des modèles. Les contributions présentées se concentrent sur trois axes. Dans un premier axe, nous souhaitons obtenir une solution de modélisation de SOC la plus générique possible et qui puisse être étendue pour prendre en compte les spécificités de chacun des référentiels. Nous proposons donc un modèle extensible commun de représentation, nommé UniMoKR, construit à partir des standards, recommandations et projets existants. Notre modèle a été proposé et intégré en partie dans la future norme ISO 25964 qui porte sur la représentation des terminologies. Nous avons également soumis deux patrons de modélisation d'ontologie au portail Ontology Design Pattern. Le second axe est consacré à la proposition de services unifiés qui reposent sur cette modélisation. Parmi ces services nous distinguons l'export de tout ou partie de SOC dans un format standard d'échange ou encore des services Web de gestion de terminologies. Pour mettre ces services à disposition, nous préconisons la méthode de transformation de modèles qui utilise le langage SPARQL pour l'expression des règles de transformation. Dans un troisième axe, nous présentons l'application de notre solution testée et commercialisée pour divers projets dans différents domaines d'applications. Nous montrons ici la faisabilité de notre approche, ainsi que l'amélioration que la représentation formelle de notre modèle apporte à la qualité des informations. Ces implémentations ont permis d'effectuer une validation en condition d'utilisation.
Style APA, Harvard, Vancouver, ISO itp.
44

Barbier, Guillaume. "Contribution de l'ingénierie dirigée par les modèles à la conception de modèles grande culture". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00914318.

Pełny tekst źródła
Streszczenie:
Cette thèse, à caractère industriel, vise à répondre à une problématique de production de l'entreprise ITK. Par la mise en oeuvre des techniques de l'ingénierie dirigée par les modèles, nous proposons un environnement de modélisation et de simulation pour la croissance des plantes. Outre sa facilité d'utilisation pour les agronomes, le prototype obtenu permet la génération automatique de code Java des modèles à intégrer dans des outils d'aide à la décision exécutés sur une plateforme Java Enterprise Edition.
Style APA, Harvard, Vancouver, ISO itp.
45

Rio, Maud. "A l'interface de l'ingénierie et de l'analyse environnementale : fédération pour une éco-conception proactice". Troyes, 2012. http://www.theses.fr/2012TROY0029.

Pełny tekst źródła
Streszczenie:
Malgré le développement rapide d'outils et de méthodes appropriés, la pratique de l'écoconception reste difficile en industrie. En particulier par le manque de dynamisme et de flexibilité des échanges d'informations entre les concepteurs multi-métier et l'expert environnement durant le processus de conception. Ainsi, ces recherches proposent une méthode leur permettant d'améliorer l'interopérabilité de leurs outils en utilisant la fédération fondée sur l'approche d'Ingénierie Dirigée par les Modèles (IDM). La méthode se décline en une étape de création de modèles associés aux outils des concepteurs et de l'expert environnement, et en une étape d'utilisation des modèles pour déployer le processus de conception suivant la tactique définie par les chefs de département. La proposition a été expérimentée sur deux cas d'études des entreprises Parkeon et Quiksilver. Les résultats des expérimentations montrent que la méthode est applicable au milieu industriel et confère trois propriétés : (1) la capacité de s'adapter aux différents contextes que nécessite la pratique de l'éco-conception (2) l'échange dynamique des données disponibles entre les concepteurs et l'expert environnement et (3) la capacité de l'expert environnement à répondre de manière adaptée aux concepteurs afin qu'ils réitèrent leurs choix en faveur de la composante environnementale. Enfin, la méthode contribue à construire une pro-activité des métiers durant le processus de conception. Cette dynamique facilite l'application de la tactique et de la stratégie environnementale
Observing how is performed eco-design in industry shows that environmental experts are facing some difficulties to share data with multi-domain product designers tools: technical limitations regarding standards, lack of modularity and flexibility, semantical loss associate to the data, etc. Therefore, this research contribution is to propose a method to build dynamic information exchanges between environmental experts and product designers activities involved along the design process, based on federation using Model Driven Engineering. The method is composed of two complementary parts: creating the environmental tools models to implement the company library and supporting the ecodesign process deployment regarding the global environmental strategy and tactic. The proposal has been tested on two industrial case studies: in the companies Parkeon and Quiksilver. The experimentations results shows that the method is adapted to industries and confers three properties : (1) the adaptation to the various eco-design contexts encountered during the design process (2) the capacity for the environmental expert to use any available informations produced by other designers (keeping the data semantic) and (3) the capacity for the environmental expert to give back to designers an adapted answer to help them reiterate their respective choice. This research contributes to build a constant proactivity along the design process between designers and environmental expert. They are better supported to follow the environmental tactic and strategy of the company
Style APA, Harvard, Vancouver, ISO itp.
46

Azaiez, Selma. "Approche dirigée par les modèles pour le développement de systèmes multi-agents". Phd thesis, Chambéry, 2007. http://tel.archives-ouvertes.fr/tel-00519195.

Pełny tekst źródła
Streszczenie:
Les systèmes multi-agents s'attaquent aux nombreuses problématiques posées actuellement dans le monde informatique telles que la distribution, l'évolution, l'adaptabilité et l'interopérabilité des systèmes. Les solutions proposées par ces systèmes sont prometteuses et permettent d'obtenir des systèmes flexibles et évolutifs. Cependant, leur mise en oeuvre reste difficile. Ceci est dû au manque de techniques d'ingénierie adaptées à ce genre de système et qui permettent un développement fiable et cohérent. Bien qu'il existe plusieurs propositions intéressantes au niveau des méthodologies, des langages de spécification et des plates-formes d'implémentation orientés agent, celles-ci manquent de cohésion et font ressortir plusieurs différences aussi bien au niveau de la sémantique des concepts utilisés mais aussi au niveau des démarches de développement. Notre but durant cette thèse a été de proposer une approche flexible et cohérente supportant le développement des systèmes multiagents. Cette approche que nous baptisons ArchMDE se base sur une combinaison de l'approche centrée architecture et de l'approche dirigée par les modèles. L'approche centrée architecture nous permet de raisonner sur les éléments qui structurent le système multi-agents ainsi que leurs interactions. Elle permet d'identifier les patrons architecturaux nécessaires au développement des systèmes multi-agents en prenant en compte les différentes vues du système (vue organisationnelle, vue environnementale, etc.). L'approche orientée modèles nous permet d'exprimer de façon explicite la manière de combiner ces patrons architecturaux afin d'avoir une représentation globale du système multi-agents. D'autre part, IDM permet de couvrir les différentes phases du cycle de développement en adoptant une démarche basée sur la transformation de modèles. Cette démarche permet de garantir la cohérence du système durant les différentes phases du cycle de vie. Par ailleurs, celle-ci offre l'avantage de préserver le savoir-faire des développeurs en exprimant explicitement les opérations d'intégration (entre les patrons architecturaux) et de mapping (entre les modèles de conception et les modèles d'implémentation). Pour implanter ArchMDE, nous utilisons le cadre de développement ArchWare qui est basé sur le pi-calcul typé, polyadique et d'ordre supérieur, ce qui permet de supporter les aspects communicatifs et évolutifs des systèmes multi-agents. Le choix d'un cadre formel vise à réduire l'ambiguïté liée aux concepts multi-agents mais aussi à garantir une conception sûre. En effet, l'utilisation d'un langage formel donne la possibilité d'exprimer explicitement différentes propriétés structurelles et comportementales. Le cadre de développement ArchWare offre divers langages accompagnés de différents outils qui nous seront utiles pour mettre en oeuvre notre approche.
Style APA, Harvard, Vancouver, ISO itp.
47

Falleri, Jean-Rémy. "Contributions à l'IDM : reconstruction et alignement de modèles de classes". Montpellier 2, 2009. http://www.theses.fr/2009MON20103.

Pełny tekst źródła
Streszczenie:
Avec l'essor du paradigme MDE pour la conception de logiciels, la phase de modélisation devient de plus en plus primordiale. Durant cette phase, les concepteurs modélisent à l'aide d'un langage à classes (comme UML) un domaine particulier. Ces modèles sont utilisés ultérieurement lors de la conception. Les logiciels à développer devenant volumineux et complexes, il est fréquent que ces modèles soient développés indépendamment par des équipes distinctes. Cette thèse propose deux contributions facilitant l'intégration de modèles développés de la sorte. La première contribution est une approche qui permet de détecter de manière automatique les correspondances entre les éléments de deux modèles de classes distincts. Cette approche simplifie la mise en commun des différents modèles lors de la phase d'assemblage qui vise à intégrer tous les modèles dans un modèle de classes global. Mon approche est basée sur les travaux effectués sur l'alignement de schémas et d'ontologies. La deuxième contribution est une approche permettant d'éliminer les redondances (attributs et méthodes dupliqués) d'un modèle de classes, grâce à l'introduction de nouvelles super-classes. En effet, les redondances sont fréquentes dans les modèles développés indépendamment, car les équipes ne savent pas forcement quels attributs et méthodes ont été introduits par les autres équipes. Mon approche utilise un dérivé de l'Analyse Formelle de Concepts et des techniques de traitement des langues. En plus de la découverte de nouvelles classes abstraites, l'approche est aussi capable de découvrir des attributs et méthodes abstraits qui améliorent le niveau d'abstraction du modèle, facilitant ainsi sa réutilisation
With the growing interest towards the MDE paradigm, used for the development of software, the modeling phase is becoming more and more important. During this phase, the developers model, often with an object oriented language, a particular system. These models are used later during the conception. Since the softwares to build are becoming more complex and large, it's common that they are build independently by several teams. This thesis presents two contributions that ease the integration of class models developed this way
Style APA, Harvard, Vancouver, ISO itp.
48

Béliche, Vale Samyr. "Approche dirigée par les modèles pour le développement des applications sensibles au contexte". Angers, 2009. http://www.theses.fr/2009ANGE0062.

Pełny tekst źródła
Streszczenie:
Les applications logicielles deviennent de plus en plus complexes et courantes dans la vie des entreprises. L'automatisation des processus est désormais fondamentale pour faire face à la concurrence et promouvoir un gain de productivité. Récemment, les entreprises se sont intéressées à un nouveau genre d'applications : les applications sensibles au contexte. Ces applications sont mises en avant par le développement des technologies des dispositifs mobiles capables de se connecter à des réseaux, tel qu'Internet, de n'importe où et à tout moment. Dans cette thèse, nous proposons une méthodologie de développement des applications sensibles au contexte selon l'approche dirigée par les modèles. Nous proposons la séparation de la logique métier de celle du contexte dans des modèles indépendants et individuels. Cette séparation permet le traitement individuel de chaque domaine et la réutilisation de chaque modèle. . . .
Software applications are becoming more and more complex and common in enterprises. Nowadays, the automation of the development process is essential for facing up to the competition and improving productivity. Recently, a new application trend has become the aim of enterprises : context-aware applications. These applications are propelled by the development of mobile device technologies which can now connect to various networks, everywhere, anywhere and at anytime. In this thesis, we propose a methodologyfor the development of context-aware applications using the model driven approach. The separation of concerns between context and business logic is achieved. We propose to represent the business logic and the context in two individual and independent models with suitable formalisms. This separation allows the individual computation of each complexity and the reuse of each model
Style APA, Harvard, Vancouver, ISO itp.
49

Fall, Ibrahima. "Gestion optimisée de produits-modèles de procédés logiciels". Paris 6, 2012. http://www.theses.fr/2012PA066018.

Pełny tekst źródła
Streszczenie:
Actuellement, la communauté des procédés logiciels ne porte que peu d'attention aux artefacts de ces procédés. Leur gestion est minimale. Or l'introduction des principes de l'ingénierie des modèles dans les procédés logiciels modifie en profondeur la nature de ces artefacts et augmente leur complexité: ils deviennent des modèles (que nous appelons produits-modèles). La prise en compte de cette complexité est alors impérative en vue d'optimiser la gestion de ces produits-modèles. Dans cette thèse, nous posons le problème de la modélisation des relations entre produits-modèles en analysant l'importance de ces relations dans la gestion de l'évolution des produits-modèles lors de l'exécution du procédé qui les utilise et/ou les produit. Ainsi nous illustrons qu’exploiter les modèles de relations à l’exécution du procédé optimise la gestion des produits-modèles en matière de cohérence, de synchronisation ou encore de flexibilité dans la granularité des produits-modèles. Notre contribution est composée de deux éléments majeurs qui sont relatifs à la modélisation puis à l'exécution de procédés. Du point de vue de la modélisation des procédés, nous avons proposé un méta-modèle permettant de structurer les éléments relatifs à la spécification des produits-modèles. Ce méta-modèle contient les concepts nécessaires à la définition des relations entre ces éléments et d'associer à ces relations les caractéristiques nécessaires à une meilleure gestion des produits-modèles à l'exécution des procédés modélisés. Notre approche supporte les relations d'inclusion (Nest) et de partage d'éléments (Overlap) entre deux ou plusieurs produits-modèles d'un procédé en exécution. Du point de vue de l'exécution des procédés, dans le but de structurer les entités logiques à travers lesquelles sont gérés les produits-modèles d'un procédé modélisés avec les concepts du précédent méta-modèle, nous avons proposé un autre méta-modèle. Ce dernier contient les concepts nécessaires à la représentation des objets de procédé correspondants aux produits-modèles ainsi qu'aux relations, en conformité avec le premier méta-modèle. Dans le but d'assurer une correspondance entre les concepts des deux méta-modèles ainsi que de permettre une exploitation automatique des concepts de modélisation à travers ceux d'exécution, la proposition comprend également des règles de transformation entre ces différents concepts. Les apports de notre approche sont relatifs à la gestion des produits-modèles de procédés en exécution. Il s'agit d'une cohérence relationnelle systématique, d'une synchronisation également systématique, d'une construction assistée, d'une flexibilité du point de vue de la granularité, et d'une intégrité ou cohérence sémantique de ces produits-modèles. Nous avons également conçu et réalisé un prototype qui simule un environnement de modélisation et d'exécution de procédés selon notre approche
Currently, software process artefacts are under-considered by the software process modelling and execution community. They are minimally managed. Moreover, the application of the principles of the model driven engineering on software processes have deeply changed the nature and increased the complexity of software artefacts : they become models (model-products hereafter). Taking into account such a complexity is a necessity with a view to optimize model-products management policies. This thesis has focused on the issue of the specification of the relationships between model-products by analysing the importance of the use of those relationships in model-products evolution management during process execution. We therefore have illustrated that using the respective specifications of relationships during process execution optimizes the management of model-products evolution in term of their consistency, their synchronization, and a flexibility in their granularity. Our solution fits in two major points that respectively relate to process modelling and enactment. According to process modelling, we have proposed a meta-model that captures the concepts to use to specify the model-products and the relationships between them. The meta-model takes also into account the details on these relationships as they are useful for an enhancement of used model-products management policies during the execution of the modelled processes. Our approach currently supports the nest and the overlap relationships. According to the process execution point of view, in order to structure the logical entities through which are managed the model-products of a process, we have proposed another meta-model. Such a meta-model therefore specifies process objects that represent model-products and their relationships during process execution. This meta-model also supports the nest and the overlap relationships, in compliance with the first one. The proposition also comprises transformation rules used to map concepts of the two meta-models and therefore to give the possibility of an automatic use of the modelling concepts through the enactment ones. The contributions of the approach are related to model-products management during process enactment. They essentially consist of a systematic synchronization and relational consistency between model-products, their aided creation, a flexibility in the granularity of their use, and their semantic integrity. We finally have prototyped a process modelling and enactment environment that implements our approach
Style APA, Harvard, Vancouver, ISO itp.
50

Le, Calvar Théo. "Exploration d’ensembles de modèles". Thesis, Angers, 2019. http://www.theses.fr/2019ANGE0035.

Pełny tekst źródła
Streszczenie:
La transformation de modèles a prouvé qu’elle était un moyen efficace pour produire des modèles cibles à partir de modèles sources le tout en raisonnant en terme de métamodèle. La majorité des techniques de transformation de modèles se concentrent sur la génération d’un modèle cible pour une source donnée. Cependant, il existe des situations dans lesquelles il est préférable de considérer une transformation générant un ensemble de modèles cibles. Un tel ensemble pourra ensuite être exploré par l’utilisateur afin de sélectionner un modèle ayant des propriétés spécifiques. Dans ce manuscrit, nous proposons une solution alliant transformation de modèles et programmation par contraintes pour permettre l’expression et l’exploration de ces ensembles de modèles. Nous proposons deux implémentations fonctionnelles de cette approche ainsi que plusieurs cas d’étude créés avec ces deux implémentations
Model transformation has proven to be an effective technique to produce target models from source models. Most transformation approaches focus on generating a single target model from a given source model. However there are situations where a collection of possible target models is preferred over a single one. Such situations arise when some choices cannot be encoded in the transformation. Then, search techniques can be used to help select a target model having specific properties. In this thesis, we present an approach combining model transformation with constraint solving to generate and explore these model sets. Moreover, we present two implementations of this approach along with multiple case studies showcasing these implementations and there usefulness
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii