Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Lignes de Produit Logiciel.

Dissertationen zum Thema „Lignes de Produit Logiciel“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Lignes de Produit Logiciel" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Istoan, Paul. „Méthodologie pour la dérivation comportementale de produits dans une ligne de produit logicielle“. Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00926141.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Urli, Simon. „Processus flexible de configuration pour lignes de produits logiciels complexes“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4002/document.

Der volle Inhalt der Quelle
Annotation:
La nécessité de produire des logiciels de qualité en adéquation avec les besoins spécifiques du marché a conduit à l'émergence de nouvelles approches de développements telles que les Lignes de Produits Logiciels (LPL). Cependant pour répondre aux exigences croissantes des nouveaux systèmes informatiques, il convient aujourd'hui d'envisager la production de ces systèmes comme des compositions d’un grand nombre de systèmes interconnectés que l'on nomme aujourd'hui des systèmes-de-systèmes. En terme de lignes de produits, il s'agit de supporter la modularité et la très grande variabilité de ces systèmes, aussi bien du point de vue de la définition des sous-systèmes, que du point de vue de leur composition tout en garantissant la viabilité des systèmes construits. Pour supporter la construction et l'utilisation de lignes de produits logiciels complexes, nous proposons une nouvelle approche basée sur (i) la définition du modèle du domaine de la ligne, (ii) la formalisation de la variabilité des éléments du domaine par des feature models (FM) et (iii) l’expression des dépendances entre ces différents FM. Pour maîtriser la complexité de telles lignes nous avons complété cette approche de modélisation par d'une part, des algorithmes visant à assurer la cohérence des lignes ainsi modélisées et d'autre part, la conception d'un processus de configuration des produits logiciels complexes garantissant la cohérence des produits sans imposer d'ordre dans les choix utilisateurs et en autorisant l'annulation des choix. Nous validons nos travaux sur une LPL dédiée à un système-de-systèmes de portée industrielle pour la production de systèmes de diffusion d’informations
The necessity of producing high quality softwares and the specific software market needs raise new approaches such as Software Product Lines (SPL). However in order to satisfy the growing requirements of new information systems, we need to consider those systems as a composition of many interconnected sub-systems called systems-of-systems. As a SPL, it implies to support the modularity and the large variability of such systems, from the definition of sub-systems to their composition, ensuring the consistency of final systems. To support design and usage of such a complex SPL, we propose a new approach based on (i) the definition of a SPL domain model, (ii) the formalization of variability using feature models (FM) and (iii) the representation of dependencies between those different FM. In order to manage the complexity of this SPL we complete our approach by in one hand algorithms ensuring the consistency of the SPL and on the other hand the definition of a configuration process which guarantees the consistency of products without imposing order in user choices and authorizing to cancel any choice. This thesis presents a formalization of these works and demonstrates the expected properties of those SPL, like the control of the product line consistency with incremental algorithms exploiting the domain model topology, the formal definition and the proof of the configuration process flexibility, and the consistency concepts of the process itself. On these basis, we propose a first implementation and we validate our works on a SPL dedicated to an industrial scale system-of-systems for producing digital signage systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ziadi, Tewfik. „Manipulation de lignes de produits en UML“. Rennes 1, 2004. http://www.theses.fr/2004REN10152.

Der volle Inhalt der Quelle
Annotation:
Une ligne de produits (LdP) regroupe un ensemble de logiciels appartenant à un même domaine et qui prend en compte des facteurs de variation. Cette thèse se situe dans le contexte de la manipulation de lignes de produits en UML et s'articule autour de trois contributions. Nous étendons UML pour permettre la spécification de la variabilité dans les diagrammes de classes et dans les diagrammes de séquence d'UML. Nous identifions deux types de contraintes dans les LdP et nous proposons de les spécifier comme des contraintes OCL. Nous formalisons la dérivation de produits en utilisant la transformation de modèles. Pour réaliser la dérivation de comportements, nous avons étudié la problématique de la synthèse automatique de machines à états à partir des scénarios. Nous proposons de revisiter le problème de la synthèse dans le contexte d'UML2. 0 par une approche algébrique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nebut, Clémentine. „Génération automatique de tests à partir des exigences et application aux lignes de produits logicielles“. Rennes 1, 2004. http://www.theses.fr/2004REN10099.

Der volle Inhalt der Quelle
Annotation:
La contribution de cette thèse est une approche de génération automatique de tests fonctionnels à partir des exigences, prenant en compte la maîtrise du coût de test, l'adaptabilité au contexte des lignes de produits, la compatibilité avec les pratiques industrielles et la complexité des logiciels réels. Notre approche se base sur un modèle de cas d'utilisation étendus, relié à un analyseur de langage naturel contrôlé en amont et un générateur de tests en aval. Le langage contrôlé rapproche la méthode des pratiques industrielles, et formalise assez les exigences pour les transformer en un modèle de cas d'utilisation simulables (via l'ajout de contrats interprétables). Des critères de test permettent alors de générer des objectifs de test de haut niveau, qui sont ensuite raffinés vers des cas de test en utilisant des scénarios. La variabilité dans les exigences est prise en compte à chaque niveau de la génération de tests, cette approche est donc adaptée aux lignes de produits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Arboleda, Jiménez Hugo Fernando. „Fine-grained configuration et dérivation de lignes de produit logiciels dirigé par les modèles“. Nantes, 2009. http://www.theses.fr/2009NANT2117.

Der volle Inhalt der Quelle
Annotation:
Nous présentons FieSta, une approche basée sur les idées de l'ingénierie dirigée par les modèles pour créer des lignes de produits logiciels. Dans les approches dirigées par les modèles pour créer lignes de produits logiciels, la dérivation d'un produit commence par un modèle d'application du domaine. Ce modèle est transformé en plusieurs étapes en utilisant des règles de transformation de modèles, jusqu'à ce qu'un produit final soit obtenu. Les règles de transformations sont choisies selon les variantes incluses dans les congurations créés par le concepteur des produits. Les congurations comportent des variantes associées des points de variation, qui sont des caractéristiques représentant la variabilité d'un ligne de produit. FieSta (1) fournit des mécanismes pour améliorer l'expression de la variabilité des lignes de produits dirigées par les modèles en permettant des concepteurs de créer des congurations grain des produits, et (2) intègre un processus de dérivation des produits qui emploie des modèles de décision et la programmation dirigé par les aspects pour faciliter la réutilisation, l'adaptation et la composition des règles de transformation des modèles. Nous présentons les modèles de contraintes qui permettent aux architectes du produit de capturer le domaine des produits en utilisant les concepts de contrainte, de propriété de cardinalité et de propriété de dépendance structurale. Pour congurer les produits, nous créons les modèles de domaine et les modèles de décision, qui sont des ensembles de liens entre des éléments et des variantes et satisfont les modèles de contraintes. Nous définissons un modèle de décision comme un ensemble d'aspects au sens de la programmation par aspects. Un aspect mémorise l'information concernant quand, où et comment intercepter une règle de transformation produisant la base commune du produit. Ces aspects détectent les points de jonctions ou de nouvelles règles de transformation, gérant la variabilité, doivent être exécutées. Notre stratégie maintient la création des variantes découplé des règles de transformation pour les parties communes. Ceci résout des problèmes liés la modularisation, l'appariement, la exibilité et la maintenance des règles de transformations. Parce que les règles communes sont complètement séparées des variantes, elles peuvent plus facilement évoluer indépendamment
We present FieSta, an approach based on Model-Driven Development ideas to create Software Product Lines (SPLs). In Model-Driven SPL approaches, the derivation of a product starts from a domain application model. This model is transformed through several stages reusing model transformation rules until a product is obtained. Transformations rules are selected according to variants included in congurations created by product designers. Congurations include variants from variation points, which are relevant characteristics representing the variability of a product line. FieSta (1) provides mechanisms to improve the expression of variability of Model-Driven SPLs by allowing designers to create ne-grained congurations of products, and (2) integrates a product derivation process which uses decision models and Aspect-Oriented Programming facilitating the reuse, adaptation and composition of model transformation rules. We introduce constraint models which make it possible for product line architects to capture the scope of product lines using the concepts of constraint, cardinality property and structural dependency property. To congure products, we create domain models and binding models, which are sets of bindings between model elements and variants and satisfy the constraint models. We dene a decision model as a set of aspects. An aspect maintains information of when transformation rules that generate commonalities of products must be intercepted (joinpoints) and what transformation rules (advices) that generate variable structures must be executed instead. Our strategy maintains uncoupled variants from model transformation rules. This solves problems related to modularization, coupling, exibility and maintainability of transformations rules because they are completely separated from variants; thus, they can evolve independently
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ghabach, Eddy. „Prise en charge du « copie et appropriation » dans les lignes de produits logiciels“. Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4056/document.

Der volle Inhalt der Quelle
Annotation:
Une Ligne de Produits Logiciels (LPL) supporte la gestion d’une famille de logiciels. Cette approche se caractérise par une réutilisation systématique des artefacts communs qui réduit le coût et le temps de mise sur le marché et augmente la qualité des logiciels. Cependant, une LPL exige un investissement initial coûteux. Certaines organisations qui ne peuvent pas faire face à un tel investissement, utilisent le « Clone-and-own » C&O pour construire et faire évoluer des familles de logiciels. Cependant, l'efficacité de cette pratique se dégrade proportionnellement à la croissance de la famille de produits, qui devient difficile à maintenir. Dans cette thèse, nous proposons une approche hybride qui utilise à la fois une LPL et l'approche C&O pour faire évoluer une famille de produits logiciels. Un mécanisme automatique d’identification des correspondances entre les « features » caractérisant les produits et les artéfacts logiciels, permet la migration des variantes de produits développées en C&O dans une LPL. L’originalité de ce travail est alors d’aider à la dérivation de nouveaux produits en proposant différents scenarii d’opérations C&O à effectuer pour dériver un nouveau produit à partir des features requis. Le développeur peut alors réduire ces possibilités en exprimant ses préférences (e.g. produits, artefacts) et en utilisant les estimations de coûts sur les opérations que nous proposons. Les nouveaux produits ainsi construits sont alors facilement intégrés dans la LPL. Nous avons étayé cette thèse en développant le framework SUCCEED (SUpporting Clone-and-own with Cost-EstimatEd Derivation) et l’avons appliqué à une étude de cas sur des familles de portails web
A Software Product Line (SPL) manages commonalities and variability of a related software products family. This approach is characterized by a systematic reuse that reduces development cost and time to market and increases software quality. However, building an SPL requires an initial expensive investment. Therefore, organizations that are not able to deal with such an up-front investment, tend to develop a family of software products using simple and intuitive practices. Clone-and-own (C&O) is an approach adopted widely by software developers to construct new product variants from existing ones. However, the efficiency of this practice degrades proportionally to the growth of the family of products in concern, that becomes difficult to manage. In this dissertation, we propose a hybrid approach that utilizes both SPL and C&O to develop and evolve a family of software products. An automatic mechanism of identification of the correspondences between the features of the products and the software artifacts, allows the migration of the product variants developed in C&O in an SPL The originality of this work is then to help the derivation of new products by proposing different scenarios of C&O operations to be performed to derive a new product from the required features. The developer can then reduce these possibilities by expressing her preferences (e.g. products, artifacts) and using the proposed cost estimations on the operations. We realized our approach by developing SUCCEED, a framework for SUpporting Clone-and-own with Cost-EstimatEd Derivation. We validate our works on a case study of families of web portals
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Bécan, Guillaume. „Metamodels and feature models : complementary approaches to formalize product comparison matrices“. Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S116/document.

Der volle Inhalt der Quelle
Annotation:
Les Matrices de Comparaison de Produits (MCP) sont largement répandues sur le web. Elles fournissent une représentation simple des caractéristiques d'un ensemble de produits. Cependant, le manque de formalisation et la grande diversité des MCP rendent difficile le développement de logiciels pour traiter ces matrices. Dans cette thèse, nous développons deux approches complémentaires pour la formalisation de MCP. La première consiste en une description précise de la structure et la sémantique d'une MCP sous la forme d'un meta-modèle. Nous proposons aussi une transformation automatique d'une MCP vers un modèle de MCP conforme au meta-modèle. La seconde approche consiste à synthétiser des modèles de caractéristiques attribués à partir d'une classe de MCP. Grâce nos contributions, nous proposons une approche générique et extensible pour la formalisation et l'exploitation de MCP
Product Comparison Matrices (PCMs) abound on the Web. They provide a simple representation of the characteristics of a set of products. However, the lack of formalization and the large diversity of PCMs challenges the development of software for processing these matrices. In this thesis, we develop two complementary approaches for the formalisation of PCMs. The first one consists in a precise description of the structure and semantics of PCMs in the form of a metamodel. We also propose an automated transformation from PCMs to PCM models conformant to the metamodel. The second one consists in synthesizing attributed feature models from a class of PCMs. With our contributions, we propose a generic and extensible approach for the formalization and exploitation of PCMs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Al-Msie', Deen Ra'Fat. „Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels : l'approche REVPLINE“. Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20024/document.

Der volle Inhalt der Quelle
Annotation:
Les lignes de produits logicielles constituent une approche permettant de construire et de maintenir une famille de produits logiciels similaires mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, dans un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implication ou d'exclusion mutuelle. Ce modèle est obtenu par analyse d'une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre les modèles de caractéristiques extraits automatiquement et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées)
The idea of Software Product Line (SPL) approach is to manage a family of similar software products in a reuse-based way. Reuse avoids repetitions, which helps reduce development/maintenance effort, shorten time-to-market and improve overall quality of software. To migrate from existing software product variants into SPL, one has to understand how they are similar and how they differ one from another. Companies often develop a set of software variants that share some features and differ in other ones to meet specific requirements. To exploit existing software variants and build a software product line, a feature model must be built as a first step. To do so, it is necessary to extract mandatory and optional features in addition to associate each feature with its name. Then, it is important to organize the mined and documented features into a feature model. In this context, our thesis proposes three contributions.Thus, we propose, in this dissertation as a first contribution a new approach to mine features from the object-oriented source code of a set of software variants based on Formal Concept Analysis, code dependency and Latent Semantic Indexing. The novelty of our approach is that it exploits commonality and variability across software variants, at source code level, to run Information Retrieval methods in an efficient way. The second contribution consists in documenting the mined feature implementations based on Formal Concept Analysis, Latent Semantic Indexing and Relational Concept Analysis. We propose a complementary approach, which aims to document the mined feature implementations by giving names and descriptions, based on the feature implementations and use-case diagrams of software variants. The novelty of our approach is that it exploits commonality and variability across software variants, at feature implementations and use-cases levels, to run Information Retrieval methods in an efficient way. In the third contribution, we propose an automatic approach to organize the mined documented features into a feature model. Features are organized in a tree which highlights mandatory features, optional features and feature groups (and, or, xor groups). The feature model is completed with requirement and mutual exclusion constraints. We rely on Formal Concept Analysis and software configurations to mine a unique and consistent feature model. To validate our approach, we applied it on three case studies: ArgoUML-SPL, Health complaint-SPL, Mobile media software product variants. The results of this evaluation validate the relevance and the performance of our proposal as most of the features and its constraints were correctly identified
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Cipriano, Mota Sousa Gustavo. „A sofware product lines-based approach for the setup and adaptation of multi-cloud environments“. Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I090.

Der volle Inhalt der Quelle
Annotation:
Le cloud computing est caractérisé par un modèle dans lequel les ressources informatiques sont fournies en tant qu'un service d'utilité, ce qui élimine le besoin de grands investissements initiaux. Malgré ses avantages, le cloud computing a suscité de nouvelles inquiétudes concernant la dépendance des fournisseurs et la confidentialité des données, ce qui a conduit à l'emergence des approaches multi-cloud. Cependant, la construction de systèmes multi-cloud est toujours difficile en raison de l'hétérogénéité entre les offres des fournisseurs de cloud et de la grande variabilité dans la configuration des fournisseurs de cloud. Cette variabilité est caractérisée par le grand nombre de services disponibles et les nombreuses façons différentes de les combiner et de les configurer. Afin de garantir la configuration correcte d'un environnement multi-cloud, les développeurs doivent connaître les offres de services et les options de configuration de plusieurs fournisseurs de cloud. Pour traiter ce problème, cette thèse propose une approche basée sur les lignes de produits logiciels pour gérer la variabilité dans les cloud afin d'automatiser la configuration et l'adaptation des environnements multi-cloud. Les contributions de cette thèse permettent de générer automatiquement un plan de configuration ou de reconfiguration pour un environnement multi-cloud à partir d'une description de ses exigences. Les expérimentations menées visent à évaluer l'impact de l'approche sur l'analyse automatisée des modèles de caractéristiques et la faisabilité de l'approche pour automatiser la configuration et l'adaptation des environnements multi-nuages
Cloud computing is characterized by a model in which computing resources are delivered as services in a pay-as-you-go manner, which eliminates the need for upfront investments, reducing the time to market and opportunity costs. Despite its benefits, cloud computing brought new concerns about provider dependence and data confidentiality, which further led to a growing trend on consuming resources from multiple clouds. However, building multi-cloud systems is still very challenging and time consuming due to the heterogeneity across cloud providers' offerings and the high-variability in the configuration of cloud providers.This variability is reflected by the large number of available services and the many different ways in which they can be combined and configured. In order to ensure correct setup of a multi-cloud environment, developers must be aware of service offerings and configuration options from multiple cloud providers. To tackle this problem, this thesis proposes a software product line-based approach for managing the variability in cloud environments in order to automate the setup and adaptation of multi-cloud environments. The contributions of this thesis enable to automatically generate a configuration or reconfiguration plan for a multi-cloud environment from a description of its requirements. The conducted experiments aim to assess the impact of the approach on the automated analysis of feature models and the feasibility of the approach to automate the setup and adaptation of multi-cloud environments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Al-Msie'Deen, Ra'Fat. „Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels: l'approche REVPLINE“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2014. http://tel.archives-ouvertes.fr/tel-01015102.

Der volle Inhalt der Quelle
Annotation:
La mise en place d'une ligne de produits logiciels permet de construire et de maintenir une famille de produits logiciels similaires en mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution de cette thèse consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, en un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implications ou d'exclusions mutuelles. Ce modèle est obtenu en exploitant une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre des modèles de caractéristiques extraits automatiquement par l'approche présentée et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Possompès, Thibaut. „Configuration par modèle de caractéristiques adapté au contexte pour les lignes de produits logiciels : application aux Smart Buildings“. Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20237/document.

Der volle Inhalt der Quelle
Annotation:
Les lignes de produits logiciels ont pour objectif la réutilisation des documents, codes sources, architectures, et plus généralement tout artefact créé durant le développement de logiciels d'un même domaine. Pour cette réutilisation, on utilise aujourd'hui des ``modèles de caractéristiques''. L'approche consiste à décrire dans ce modèle les caractéristiques des artefacts créés et les contraintes permettant de les assembler, puis à sélectionner les caractéristiques représentatives d'un nouveau produit en le générant en tout ou partie. Dans certaines situations, une caractéristique représente un artefact associé à un élément du contexte que le produit doit gérer. Une telle caractéristique, et les contraintes relatives à sa mise en œuvre, peuvent être clonées pour chaque occurrence de l'élément dans le contexte. Dans le cadre de cette thèse, nous cherchons à déterminer l'impact du contexte d'exécution d'un futur produit sur les caractéristiques d'une ligne de produits logiciels. Nous explorons tout d'abord les différentes manières de représenter un modèle de caractéristiques et le contexte d'un produit. Nous proposons ensuite une méthode générique pour adapter un modèle de caractéristiques aux éléments d'un contexte. Cette thèse a été réalisée dans le contexte du projet RIDER (Reasearch for ITDriven EneRgy efficiency). Ce projet a pour objectif la réduction des pertes énergétiques subies à cause d'une gestion inappropriée des sources et des besoins énergétiques des bâtiments. La variété des équipements et les spécificités de chaque bâtiment nécessitent une adaptation au cas par cas des logiciels d'optimisation énergétique. Nous proposons donc d'appliquer à ce projet une approche par lignes de produits logiciels, et plus particulièrement, notre méthode d'adaptation de modèles de caractéristiques au contexte, pour adapter les logiciels d'optimisation énergétique au contexte spécifique de chaque bâtiment
Software product lines aim at reusing documents, source code, architectures, and, all artefact created during software development achieved in a given domain. Nowadays, we use ``feature models'' to facilitate the reuse of such elements. The approach consists in describing, in this feature model, artefacts and their usage constraints, and then to identify representative features for creating a new product. In some situations, a feature represents an artefact associated to a context element that must be handled by the product. Such a feature, and its related constraints, can be cloned for each occurrence of instances of this element in a given context. In this thesis, we are try to determine the impact of a product execution context on a future product features. We first explore different ways for representing feature models and a product context. Then, we propose a generic method to adapt a feature model to context elements. This thesis has been achieved in the context of the RIDER project (Research for IT Driven EneRgy efficiency). This project aims at reducing energy waste due to an inappropriate management of energy sources and needs. The heterogeneousness of building equipments and each building specificities require to adapt energy optimisation software. We propose to apply a software product line approach to this project. More precisely, we propose to apply to this project our feature model context adaptation methodology, in order to adapt energy optimisation software to each building specific context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Méndez, Acuña David Fernando. „Leveraging software product lines engineering in the construction of domain specific languages“. Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S136/document.

Der volle Inhalt der Quelle
Annotation:
La complexité croissante des systèmes logiciels modernes a motivé la nécessité d'élever le niveau d'abstraction dans leur conception et mis en œuvre. L'usage des langages dédiés a émergé pour répondre à cette nécessité. Un langage dédié permet de spécifier un système logiciel à travers des concepts relatifs au domaine d'application. Cette approche a plusieurs avantages tels que la diminution des détails techniques auxquels les développeurs doivent faire face, la séparation des préoccupations et la participation des experts du domaine dans le processus de développement. Malgré les avantages fournis par l'usage des langages dédiés, cette approche présente des inconvénients qui remettent en question sa pertinence dans des projets réels de développement logiciel. L'un de ces inconvénients est le coût de la construction des langages dédiés. La définition et l'outillage de ces langages est une tâche complexe qui prend du temps et qui requiert des compétences techniques spécialisées. Le processus de développement des langages dédiés devient encore plus complexe lorsque nous prenons en compte le fait que ces langages peuvent avoir plusieurs dialectes. Dans ce contexte, un dialecte est une variante d'un langage qui introduit des différences au niveau de la syntaxe et/ou de la sémantique. Afin de réduire le coût du processus de développement des langages dédiés, les concepteurs des langages doivent réutiliser autant de définitions que possible pendant la construction des variantes. Le but est d'exploiter les définitions et l'outillage définis précédemment pour dunaire au maximum, la mis en ouvre des zéro dans la construction de langages. Afin de répondre à la question de recherche précédemment énoncée, la communauté de recherche autour de l'ingénierie des langages a proposé l'usage des lignes de produits. En conséquence, la notion de lignes de langages a récemment émergé. Une ligne de langages est une ligne de produis où les produits sont des langages. Le principal but dans les lignes de langages est la définition indépendante de morceaux de langage. Ces morceaux peuvent être combinées de manières différentes pour configurer des langages adaptés aux situations spécifiques. D'une manière similaire aux lignes de produits, les lignes de langages peuvent être construites à partir de deux approches différentes: top-down et bottom-up . Dans l'approche top-down, les lignes de langages sont conçues et mis en œuvre au travers d'un processus d'analyse du domaine où les connaissances du domaine sont utilisées pour définir un ensemble de modules de langage qui réalisent les caractéristiques de la ligne de langages. En outre, les connaissances du domaine sont aussi utilisées pour représenter la variabilité de la ligne de langages à travers des modèles bien structurés qui, en plus, servent à configurer des langages particuliers. Dans l'approche bottom-up, les lignes des langages sont construites à partir d'un ensemble de variantes des langages existant au travers de techniques d'ingénierie inverse. À partir des approches précédemment énoncées, nous proposons deux contributions : (1) Des facilités pour supporter l'approche top-down. Nous proposons une approche de modularisation des langages qui permet la décomposition des langages dédiés comme modules de langages interdépendants. En plus, nous introduisons une stratégie de modélisation pour représenter la variabilité dans une ligne de langages. (2) Techniques d'ingénierie inverse pour supporter l'approche bottom-up. Comme deuxième contribution, nous proposons une technique d'ingénierie inverse pour construire, de manière automatique, une ligne de langages à partir d'un ensemble de variantes de langages existantes. Nos contributions sont validées à travers des cas d'étude industriels
The use of domain-specific languages (DSLs) has become a successful technique in the development of complex systems because it furnishes benefits such as abstraction, separation of concerns, and improvement of productivity. Nowadays, we can find a large variety of DSLs providing support in various domains. However, the construction of these languages is an expensive task. Language designers are intended to invest an important amount of time and effort in the definition of formal specifications and tooling for the DSLs that tackle the requirements of their companies. The construction of DSLs becomes even more challenging in multi-domain companies that provide several products. In this context, DSLs should be often adapted to diverse application scenarios, so language development projects address the construction of several variants of the same DSL. At this point, language designers face the challenge of building all the required variants by reusing, as much as possible, the commonalities existing among them. The objective is to leverage previous engineering efforts to minimize implementation from scratch. As an alternative to deal with such a challenge, recent research in software language engineering has proposed the use of product line engineering techniques to facilitate the construction of DSL variants. This led the notion of language product lines i.e., software product lines where the products are languages. Similarly to software product lines, language product lines can be built through two different approaches: top-down and bottom-up. In the top-down approach, a language product line is designed and implemented through a domain analysis process. In the bottom-up approach, the language product line is built up from a set of existing DSL variants through reverse-engineering techniques. In this thesis, we provide support for the construction of language product lines according to the two approaches mentioned before. On one hand, we propose facilities in terms of language modularization and variability management to support the top-down approach. Those facilities are accompanied with methodological insights intended to guide the domain analysis process. On the other hand, we introduce a reverse-engineering technique to support the bottom-up approach. This technique includes a mechanism to automatically recover a language modular design for the language product line as we as a strategy to synthesize a variability model that can be later used to configure concrete DSL variants. The ideas presented in this thesis are implemented in a well-engineered language workbench. This implementation facilitates the validation of our contributions in three case studies. The first case study is dedicated to validate our languages modularization approach that, as we will explain later in this document, is the backbone of any approach supporting language product lines. The second and third case studies are intended to validate our contributions on top-down and bottom-up language product lines respectively
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Galindo, Duarte José Ángel. „Evolution, testing and configuration of variability systems intensive“. Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S008/document.

Der volle Inhalt der Quelle
Annotation:
Une particularité importante du logiciel est sa capacité à être adapté et configuré selon différents scénarios. Récemment, la variabilité du logiciel a été étudiée comme un concept de première classe dans différents domaines allant des lignes de produits logiciels aux systèmes ubiquitaires. La variabilité est la capacité d'un produit logiciel à varier en fonction de différentes circonstances. Les systèmes à forte variabilité mettent en jeu des produits logiciels où la gestion de la variabilité est une activité d'ingénierie prédominante. Les diverses parties de ces systèmes sont couramment modélisées en utilisant des formes différentes de ''modèle de variabilité'', qui est un formalisme de modélisation couramment utilisé. Les modèles de caractéristiques (feature models) ont été introduits par Kang et al. en 1990 et sont une représentation compacte d'un ensemble de configurations pour un système à forte variabilité. Le grand nombre de configurations d'un modèle de caractéristiques ne permet pas une analyse manuelle. De fait, les mécanismes assistés par ordinateur sont apparus comme une solution pour extraire des informations utiles à partir de modèles de caractéristiques. Ce processus d'extraction d'information à partir de modèles de caractéristiques est appelé dans la littérature scientifique ''analyse automatisée de modèles de caractéristiques'' et a été l'un des principaux domaines de recherche ces dernières années. Plus de trente opérations d'analyse ont été proposées durant cette période. Dans cette thèse, nous avons identifié différentes questions ouvertes dans le domaine de l'analyse automatisée et nous avons considéré plusieurs axes de recherche. Poussés par des scénarios du monde réel (e.g., la téléphonie mobile ou la vidéo protection), nous avons contribué à appliquer, adapter ou étendre des opérations d'analyse automatisée pour l’évolution, le test et la configuration de systèmes à forte variabilité
The large number of configurations that a feature model can encode makes the manual analysis of feature models an error prone and costly task. Then, computer-aided mechanisms appeared as a solution to extract useful information from feature models. This process of extracting information from feature models is known as ''Automated Analysis of Feature models'' that has been one of the main areas of research in the last years where more than thirty analysis operations have been proposed. In this dissertation we looked for different tendencies in the automated analysis field and found several research opportunities. Driven by real-world scenarios such as smart phone or videosurveillance domains, we contributed applying, adapting or extending automated analysis operations in variability intensive systems evolution, testing and configuration
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Yu, Jianqi. „Ligne de produits dynamique pour les applications à services“. Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM034.

Der volle Inhalt der Quelle
Annotation:
Le développement d'applications par composition de services dynamiques et hétérogènes, c'est-à-dire implantés suivant des technologies différentes, est le sujet principal de cette thèse. Nous pensons, en effet, que l'approche orientée service apporte des changements considérables dans le domaine du logiciel et peut amener des gains significatifs en termes de réduction des coûts, d'amélioration de la qualité et de compression des temps de mise sur le marché. Les technologies à services ont dors et déjà pénétré de nombreux secteurs d'activité et répondent à certaines des attentes qu'ils suscitaient. Le développement d'applications par composition de services hétérogènes demeure néanmoins très complexe pour plusieurs raisons. Tout d'abord, les diverses technologies existantes utilisent des mécanismes de déclaration, de recherche et de liaison très différents. Les services, eux-mêmes, sont décrits suivant des structures souvent éloignées. Des développements et des connaissances techniques très pointus sont ainsi nécessaires pour correctement associer des services utilisant des bases technologiques différentes. D'autre part, la gestion du dynamisme est complexe. Le principe de l'approche à service est de permettre la liaison retardée de service et, dans certains cas, le changement des liaisons en fonction de l'évolution du contexte. Cela demande des algorithmes de synchronisation très précis, difficiles à mettre au point et à tester. Nous nous sommes ainsi rendu compte que, dans de nombreux cas, les bénéfices de l'approche à service ne sont pas complètement obtenus, faute d'une gestion appropriée du dynamisme. Enfin, les services sont essentiellement décrits suivant une logique syntaxique. On ne peut donc pas garantir, dans un cas général, la compatibilité de plusieurs services ou, plus simplement, la correction de leur comportement global. Cela est d'autant plus difficile lorsque des services ont des interactions complexes, non limitées à un unique appel pour obtenir une information. Nous apportons, dans cette thèse, une dimension « domaine » à la composition de service. La définition d'un domaine permet de restreindre les compositions possibles, aussi bien au niveau technologique qu'au niveau sémantique. C'est ainsi que nous avons trouvé une grande complémentarité entre les approches à service et les approches à base de lignes de produits. Les technologies à service apportent de façon naturelle le dynamisme, c'est-à-dire la capacité à créer des liaisons entre services de façon retardée à l'exécution. Les lignes de produits, quant à elles, définissent un cadre de réutilisation anticipée et planifiée. De façon plus précise, cette thèse défend une démarche outillée de composition de services structurée en trois phases, à savoir : la définition d'un domaine sous forme de services et d'architectures de référence à services, la définition d'applications sous forme d'architectures à service, et l'exécution autonomique des applications en fonction de l'architecture applicative du contexte. Cette thèse est validée au sein d'un projet collaboratif dans le domaine de la santé dans l'habitat
Application development by composition of dynamic and heterogeneous services, that is to say, implemented according to different technologies, is the main subject of this thesis. We believe, actually, that service-oriented approach brings considerable changes in software computing and can bring significant benefits in terms of cost reduction, quality improvement and compression of time-to-market. The service-based technologies have already penetrated in many industries sections and answered certain expectations they aroused. Application development by composing heterogeneous services is still very complex for several reasons. Firstly, the various existing technologies employ very different mechanisms for declaration, research and liaison. The services themselves are described following structures often different. Therefore, development and technical knowledge are necessary to correctly combine services using different technological bases. On the other hand, dynamism management is complex. The principle of the service-oriented approach is to allow late service binding and, in some cases, the change of bindings according to context evolution. This requires very precise synchronization algorithms and is difficult to develop and test. We are well aware that in many cases, the benefits of service-oriented approach are not fully achieved, lacking of appropriate dynamism management. Finally, services are essentially described using a logical syntax. Therefore, we cannot guarantee, in a general case, the compatibility of several services or, more simply, the correctness of their global behavior. This is even more difficult when services have complex interactions, not restricted to a single call to obtain information. In this thesis, we bring a domain-specific dimension into service composition. The domain definition allows restricting the possible compositions of services, both at technical and semantic level. Thus we have found great complementarities between software product lines approaches and service-oriented approaches. Dynamism is a natural characteristic of service-based technologies, that is to say, the ability to bind services as late as possible utile runtime. Software product-lines, in turn, define approaches for planned reuse. Specifically, this thesis provides a three-phase approach for development of service composition with tool support, namely: the definition of a domain in the form of services and reference architectures, the definition of application in the form of service-based architectures and the execution of autonomic applications following application architecture. This thesis is validated in a collaborative project in the home healthcare domain
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Yu, Jianqi. „Ligne de produits dynamique pour les applications à services“. Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00493355.

Der volle Inhalt der Quelle
Annotation:
Le développement d'applications par composition de services dynamiques et hétérogènes, c'est-à-dire implantés suivant des technologies différentes, est le sujet principal de cette thèse. Nous pensons, en effet, que l'approche orientée service apporte des changements considérables dans le domaine du logiciel et peut amener des gains significatifs en termes de réduction des coûts, d'amélioration de la qualité et de compression des temps de mise sur le marché. Les technologies à services ont dors et déjà pénétré de nombreux secteurs d'activité et répondent à certaines des attentes qu'ils suscitaient. Le développement d'applications par composition de services hétérogènes demeure néanmoins très complexe pour plusieurs raisons. Tout d'abord, les diverses technologies existantes utilisent des mécanismes de déclaration, de recherche et de liaison très différents. Les services, eux-mêmes, sont décrits suivant des structures souvent éloignées. Des développements et des connaissances techniques très pointus sont ainsi nécessaires pour correctement associer des services utilisant des bases technologiques différentes. D'autre part, la gestion du dynamisme est complexe. Le principe de l'approche à service est de permettre la liaison retardée de service et, dans certains cas, le changement des liaisons en fonction de l'évolution du contexte. Cela demande des algorithmes de synchronisation très précis, difficiles à mettre au point et à tester. Nous nous sommes ainsi rendu compte que, dans de nombreux cas, les bénéfices de l'approche à service ne sont pas complètement obtenus, faute d'une gestion appropriée du dynamisme. Enfin, les services sont essentiellement décrits suivant une logique syntaxique. On ne peut donc pas garantir, dans un cas général, la compatibilité de plusieurs services ou, plus simplement, la correction de leur comportement global. Cela est d'autant plus difficile lorsque des services ont des interactions complexes, non limitées à un unique appel pour obtenir une information. Nous apportons, dans cette thèse, une dimension " domaine " à la composition de service. La définition d'un domaine permet de restreindre les compositions possibles, aussi bien au niveau technologique qu'au niveau sémantique. C'est ainsi que nous avons trouvé une grande complémentarité entre les approches à service et les approches à base de lignes de produits. Les technologies à service apportent de façon naturelle le dynamisme, c'est-à-dire la capacité à créer des liaisons entre services de façon retardée à l'exécution. Les lignes de produits, quant à elles, définissent un cadre de réutilisation anticipée et planifiée. De façon plus précise, cette thèse défend une démarche outillée de composition de services structurée en trois phases, à savoir : la définition d'un domaine sous forme de services et d'architectures de référence à services, la définition d'applications sous forme d'architectures à service, et l'exécution autonomique des applications en fonction de l'architecture applicative du contexte. Cette thèse est validée au sein d'un projet collaboratif dans le domaine de la santé dans l'habitat.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Niang, Boubou Thiam. „A Model-Driven Engineering and Software Product Line Approach to Support Interoperability in Systems of Information Systems“. Electronic Thesis or Diss., Lyon 2, 2024. http://www.theses.fr/2024LYO20005.

Der volle Inhalt der Quelle
Annotation:
Les systèmes d'information modernes requièrent une communication et une coordination sans faille entre leurs composants. Les organisations ont du mal à s'adapter aux changements fréquents lors de leurs engagements avec divers partenaires industriels en raison de la création manuelle et au cas par cas des mécanismes d'interopérabilité. Ces mécanismes doivent être les réutilisables pour éviter des processus chronophages et sujets aux erreurs dans un environnement en constante évolution. Leur manque de réutilisation résulte de leur intégration fréquente dans des composants de logique métier, créant un couplage fort et rendant la maintenance complexe sans altérer le fonctionnement global du système.Berger-Levrault est éditeur de logiciels, fournit principalement les institutions publiques, maintenant activement l'interopérabilité pour s'ajuster aux réformes fréquentes du secteur public local. La croissance par acquisitions d'entreprises entraîne une diversité d'applications héritées, avec des variations dans le langage, l'architecture, et les normes. L'objectif principal est de créer une solution d'interopérabilité adaptable facilitant l'interaction entre les composants du système d'information et les systèmes externes. Les défis incluent l'adaptation aux règles changeantes, la gestion de volumes de données variables, et l'intégration de nouveaux composants dans les institutions publiques.Cette thèse analyse les flux d'échange de données entre composants et systèmes, propose une approche pour implémenter et faire évoluer les mécanismes d'interopérabilité, minimisant l'impact sur les opérations du système d'information. La méthodologie démarre par une vision réifiée des mécanismes d'interopérabilité, extrayant les mécanismes d'échange des constituants de la logique d'entreprise pour les considérer comme des connecteurs d'interopérabilité de première classe. Pour ce faire, on procède par rétro-ingénierie pour extraire les fonctionnalités des mécanismes d'interopérabilité existants et les réifie sous la forme d'un composant tangible, le connecteur, au sein du système d'information. L'analyse, s'appuie sur référentiel créé, comprenant des projets sélectionnés de manière transparente, garantissant un nombre minimal de projets et couvrant tous les modèles d'intégration d'entreprise provenant de différentes sources. Le métamodèle proposé confirme et valide cette réification en termes de complétude et d'extensibilité. La complétude du métamodèle de connecteur est validée par un processus bien défini, tandis qu'un autre processus garantit l'extensibilité du métamodèle. Le métamodèle extensible révèle que les connecteurs sont des entités communes, ce qui conduit à l'approche ConPL, un cadre de ligne de produits logiciels adapté aux connecteurs. L'outil PhaDOP a été utilisé pour mettre en œuvre cette approche, et une preuve de concept a été démontrée avec un cas d'utilisation spécifique. Des tests de performance ont été effectués sur la structure de représentation des connecteurs proposée. Le cadre ConPL est validé par un cas d'utilisation industriel
Modern information systems consist of various components that require seamless communication and coordination. Organizations face difficulties adapting to dynamic changes while engaging with diverse industry partners. The challenge arises from the fact that interoperability mechanisms are often created manually and in an ad hoc manner. These mechanisms must be reusable to avoid time-consuming and error-prone processes in an ever-changing environment. The lack of reusability is because interoperability mechanisms are often integrated into business logic components, which creates a strong coupling between components, making maintenance difficult without affecting the overall operation of the system.Berger-Levrault, our industrial partner, primarily serves public institutions. The company actively maintains interoperability, especially in the context of frequent reforms in the local public sector. In addition, companies have grown through acquisitions, resulting in a diverse range of legacy applications with variations in language, architecture, norms, and industry standards. The primary goal is to create an adaptable interoperability solution that facilitates seamless communication between the components of the information system and the external environment. Challenges include adapting to changing rules and standards, managing variable data volumes, and integrating connected objects within public institutions.This thesis examines data exchange flows between constituents and systems, analyzes their characteristics and requirements, and proposes cost-effective approaches for implementing and evolving interoperability mechanisms while minimizing the impact on overall information system operations. The methodology adopted begins with a reified vision of interoperability mechanisms, where exchange mechanisms are extracted from the business logic constituents and considered first-class constituents called interoperability connectors. To achieve this, reverse engineering extracts functionality from existing interoperability mechanisms and reifies it as a tangible constituent, the connector, within the information system. For the analysis, we create a repository comprising projects selected transparently, guaranteeing a minimal number of projects, and covering all the Enterprise Integration Patterns from different sources. The proposed metamodel confirms and validates this reification regarding completeness and extensibility. The completeness of the connector metamodel is validated through a well-defined process, while another process guarantees the metamodel's extensibility. The extensible metamodel reveals connectors as common entities, leading to the ConPL approach, a software product line framework adapted to connectors. The PhaDOP tool was utilized to implement this approach, and a proof-of-concept was demonstrated with a specific use case. Performance tests were conducted on the proposed connector representation structure. The ConPL framework is validated through an industrial use case
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

El, Amraoui Yassine. „Faciliter l'inclusion humaine dans le processus de science des données : de la capture des exigences métier à la conception d'un workflow d'apprentissage automatique opérationnel“. Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4017.

Der volle Inhalt der Quelle
Annotation:
Le processus de création de flux de travail en science des données, notamment pour résoudre des problèmes d'apprentissage automatique, repose souvent sur des essais et erreurs, manquant de structure et de partage de connaissances entre les data scientistes. Cela entraîne une variabilité dans les tentatives et une interprétation subjective des cas d'utilisation. Afin d'améliorer ce processus dans le cadre de la détection d'anomalies sur les séries temporelles, notre travail propose trois contributions principales :Contribution 1 : Intégration des données, des exigences métiers et des composants de la solution dans la conception du flux de travail d'apprentissage automatique.Alors que les approches automatiques se concentrent sur les données, notre approche prend en compte les dépendances entre les données, les exigences métier et les composants de la solution.Cette approche holistique assure une compréhension plus complète du problème et guide le développement de solutions appropriées. Contribution 2 : Personnalisation des flux de travail pour des solutions sur mesure en tirant parti de configurations partielles et modulaires. Notre approche vise à aider les data scientists à personnaliser les flux de travail pour leurs problèmes spécifiques.Nous y parvenons en employant divers modèles de variabilité et un système de contraintes.Cette approche permet d'intégrer les données, les exigences métier et les composants de la solution dans le processus de conception des flux de travail.En outre, nous avons montré que les utilisateurs peuvent accéder à des expériences antérieures basées sur les paramètres du problème ou en créer de nouvelles.Contribution 3 : Amélioration de la connaissance des lignes de produits logiciels par l'exploitation de nouveaux produits.Nous avons proposé une approche pratique de la construction d'une ligne de produit logiciel (LPL) comme première étape vers la conception de solutions génériques pour détecter les anomalies dans les séries temporelles tout en capturant de nouvelles connaissances et en capitalisant sur celles qui existent déjà lorsqu'il s'agit de nouvelles expériences ou de nouveaux cas d'utilisation. L'incrémentalité dans l'acquisition de connaissances et l'instabilité du domaine sont soutenues par la LPL à travers sa structuration et l'exploitation de configurations partielles associées à des cas d'utilisation antérieurs.À notre connaissance, il s'agit du premier cas d'application du paradigme LPL dans un tel contexte et avec un objectif d'acquisition de connaissances.En capturant les pratiques dans des descriptions partielles des problèmes et des descriptions des solutions mises en œuvre, nous obtenons les abstractions nécessaires pour raisonner sur les ensembles de données, les solutions et les exigences métier.Le LPL est ensuite utilisé pour produire de nouvelles solutions, les comparer aux solutions antérieures et identifier les connaissances qui n'étaient pas explicites.L'abstraction croissante soutenue par le SPL apporte également d'autres avantages.En ce qui concerne le partage des connaissances, nous avons observé un changement dans l'approche de la création de flux de travail de ML, en se concentrant sur l'analyse des problèmes avant de rechercher des applications similaires
When data scientists need to create machine learning workflows to solve a problem, they first understand the business needs, analyze the data, and then experiment to find a solution. They judge the success of each attempt using metrics like accuracy, recall, and F-score. If these metrics meet expectations on the test data, it's a success; otherwise, it's considered a failure. However, they often don't pinpoint why a workflow fails before trying a new one. This trial-and-error process can involve many attempts because it's not guided and relies on the preferences and knowledge of the data scientist.This intuitive method leads to varying trial counts among data scientists. Also, evaluating solutions on a test set doesn't guarantee performance on real-world data. So, when models are deployed, additional monitoring is needed. If a workflow performs poorly, the whole process might need restarting with adjustments based on new data.Furthermore, each data scientist learns from their own experiences without sharing knowledge. This lack of collaboration can lead to repeated mistakes and oversights. Additionally, the interpretation of similarity between use cases can vary among practitioners, making the process even more subjective. Overall, the process lacks structure and heavily depends on the individual knowledge and decisions of the data scientists involved.In this work, we present how to mutualize data science knowledge related to anomaly detection in time series to help data scientists generate machine learning workflows by guiding them along the phases of the process .To this aim, we have proposed three main contributions to this problem:Contribution 1: Integrating Data, Business Requirements, and Solution Components in ML Workflow design.While automatic approaches focus on data, our approach considers the dependencies between the data, the business requirements, and the solution components. This holistic approach ensures a more comprehensive understanding of the problem and guides the development of appropriate solutions.Contribution 2: Customizing Workflows for Tailored Solutions by Leveraging Partial and Modular Configurations. Our approach aims to assist data scientists in customizing workflows for their specific problems. We achieve this by employing various variability models and a constraint system. This setup enables users to receive feedback based on their data and business requirements, possibly only partially identified.Additionally, we showed that users can access previous experiments based on problem settings or create entirely new ones.Contribution 3: Enhancing Software Product Lines Knowledge through New Product Exploitation.We have proposed a practice-driven approach to building an SPL as a first step toward allowing the design of generic solutions to detect anomalies in time series while capturing new knowledge and capitalizing on the existing one when dealing with new experiments or use cases.The incrementality in the acquisition of knowledge and the instability of the domain are supported by the SPL through its structuring and the exploitation of partial configurations associated with past use cases.As far as we know, this is the first case of application of the SPL paradigm in such a context and with a knowledge acquisition objective.By capturing practices in partial descriptions of the problems and descriptions of the solutions implemented, we obtain the abstractions to reason about datasets, solutions, and business requirements.The SPL is then used to produce new solutions, compare them to past solutions, and identify knowledge that was not explicit.The growing abstraction supported by the SPL also brings other benefits.In knowledge sharing, we have observed a shift in the approach to creating ML workflows, focusing on analyzing problems before looking for similar applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Le, Moulec Gwendal. „Synthèse d'applications de réalité virtuelle à partir de modèles“. Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0010/document.

Der volle Inhalt der Quelle
Annotation:
Les pratiques de développement des logiciels de Réalité Virtuelle (RV) ne sont pas optimisées. Ainsi, chaque société utilise ses propres méthodes. L'objectif de la thèse est d'automatiser la production et l'évaluation des logiciels de RV en utilisant des techniques issues de ! 'Ingénierie Dirigée par les Modèles (IDM). Les approches existantes en RV ne permettent pas de tirer parti des points communs que partagent ces logiciels. Ces manques de réutilisation et d'abstraction sont des problèmes connus en !DM, qui propose le concept de Ligne de Produits Logiciels (LPL) pour automatiser la production de logiciels de la même famille par réutilisation de composants communs. Cependant cette approche n'est pas adaptée au développement de logiciels reposant sur un scénario, comme en RV. Nous proposons deux frameworks qui comblent respectivement les manques en IDM et en RV : LPLOS (LPL Orientée Scénario) et LPLRV (LPL pour la RV). LPLOS repose sur un modèle de scénarios qui manipule un modèle de variabilité logicielle (Feature model, FM). Chaque étape du scénario correspond à une configuration du FM. LPLRV repose sur LPLOS. Le scénario supervise la manipulation des objets virtuels, générés automatiquement à partir d'un modèle. Nous avons implémenté ces frameworks au sein d'outils qui ont été essayés sur des exemples et évalués par des utilisateurs cibles. Les résultats soutiennent l'utilisation de ces frameworks pour la production de logiciels reposant sur un scénario
Development practices in Virtual Reality (VR) are not optimized. for example, each company uses its own methods. The goal of this PhD thesis is to automatize development and evaluation of VR software with the use of Model-Driven Engineering (MDE) technics. The existing approaches in VR do not take advantage of software commonalities. Those lacks of reuse and abstraction are known problems in MDE, which proposes the Soflware Product Line (SPL) concept to automatize the production of software belonging to the same family, by reusing common components. However, this approach is not adapted to software based on a scenario, like inVR.We propose two frameworks that respectively address the lacks in MDE and VR : SOSPL (scenario-oriented software product line) and VRSPL (VR SPL). SOSPL is based on a scenario model that handles a software variability model (feature model , FM). Each scenario step matches a configuration of the FM. VRSPL is based on SOSPL. The scenario manages virtual objects manipulation, the objects being generated automatically from a model. We implemented these frameworks inside tools that have been tried on exemples and evaluated by their target users. The results promote the use of these frameworks for producing scenario-based software
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Ridene, Youssef. „Ingéniérie dirigée par les modèles pour la gestion de la variabilité dans le test d'applications mobiles“. Thesis, Pau, 2011. http://www.theses.fr/2011PAUU3010/document.

Der volle Inhalt der Quelle
Annotation:
L'engouement du grand public pour les applications mobiles, dont le nombre ne cessede croître, a rendu les utilisateurs de plus en plus exigeants quant à la qualité de cesapplications. Seule une procédure de test efficace permet de répondre à ces exigences.Dans le contexte des applications embarquées sur téléphones mobiles, le test est unetâche coûteuse et répétitive principalement à cause du nombre important de terminauxmobiles qui sont tous différents les uns des autres.Nous proposons dans cette thèse le langage MATeL, un DSML (Domain-Specific ModelingLanguage) qui permet de d’écrire des scénarios de test spécifiques aux applicationsmobiles. Sa syntaxe abstraite, i.e. un méta modèle et des contraintes OCL, permet auconcepteur de manipuler les concepts métier du test d'applications mobiles (testeur, mobileou encore résultats attendus et résultats obtenus). Par ailleurs, il permet d'enrichirces scénarii avec des points de variabilité qui autorisent de spécifier des variations dansle test en fonction des particularités d'un mobile ou d'un ensemble de mobiles. La syntaxeconcrète de MATeL, qui est inspirée de celle des diagrammes de séquence UML,ainsi que son environnement basé sur Eclipse permettent à l'utilisateur de concevoir desscénarii relativement facilement.Grâce à une plateforme de test en ligne construite pour les besoins de notre projet,il est possible d'exécuter les scénarii sur plusieurs téléphones différents. La démarcheest illustrée dans cette thèse à travers des cas d'utilisation et des expérimentations quiont permis de vérifier et valider notre proposition
Mobile applications have increased substantially in volume with the emergence ofsmartphones. Ensuring high quality and successful user experience is crucial to the successof such applications. Only an efficient test procedure allows developers to meet these requirements. In the context of embedded mobile applications, the test is costly and repetitive. This is mainly due to the large number of different mobile devices. In this thesis, we describe MATeL, a Domain-Specific Modeling Language (DSML) for designing test scenarios for mobile applications. Its abstract syntax, i.e. a meta model and OCL constraints, enables the test designer to manipulate mobile applications testing concepts such as tester, mobile or outcomes and results. It also enables him/her to enrich these scenarios with variability points in the spirit of Software Product-Line engineering, that can specify variations in the test according to the characteristics of one mobile or a set of mobiles. The concrete syntax of MATeL that is inspired from UML sequence diagrams and its environment based on Eclipse allow the user to easily develop scenarios. MATeL is built upon an industrial platform (a test bed) in order to be able to run scenarios on several different phones. The approach is illustrated in this thesis through use cases and experiments that led to verify and validate our contribution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Creff, Stephen. „Une modélisation de la variabilité multidimensionnelle pour une évolution incrémentale des lignes de produits“. Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00926119.

Der volle Inhalt der Quelle
Annotation:
Le doctorat s'inscrit dans le cadre d'une bourse CIFRE et d'un partenariat entre l'ENSTA Bretagne, l'IRISA et Thales Air Systems. Les préoccupations de ce dernier, et plus particulièrement de l'équipe de rattachement, sont de réaliser des systèmes à logiciels prépondérants embarqués. La complexité de ces systèmes et les besoins de compétitivité associés font émerger la notion de "Model-Based Product Lines(MBPLs)". Celles-ci tendent à réaliser une synergie de l'abstraction de l'Ingénierie Dirigée par les Modèles (IDM) et de la capacité de gestion de la capitalisation et réutilisation des Lignes de Produits (LdPs). La nature irrévocablement dynamique des systèmes réels induit une évolution permanente des LdPs afin de répondre aux nouvelles exigences des clients et pour refléter les changements des artefacts internes de la LdP. L'objectif de cette thèse est unique, maîtriser des incréments d'évolution d'une ligne de produits de systèmes complexes, les contributions pour y parvenir sont duales. La thèse est que 1) une variabilité multidimensionnelle ainsi qu'une modélisation relationnelle est requise dans le cadre de lignes de produits de systèmes complexes pour en améliorer la compréhension et en faciliter l'évolution (proposition d'un cadre générique de décomposition de la modélisation et d'un langage (DSML) nommé PLiMoS, dédié à l'expression relationnelle et intentionnelle dans les MBPLs), et que 2) les efforts de spécialisation lors de la dérivation d'un produit ainsi que l'évolution de la LdP doivent être guidé par une architecture conceptuelle (introduction de motifs architecturaux autour de PLiMoS et du patron ABCDE) et capitalisés dans un processus outillé semi-automatisé d'évolution incrémentale des lignes de produits par extension.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Ben, Rhouma Aouina Takoua. „Composition des modèles de lignes de produits logiciels“. Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00772257.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de la gestion des modèles de lignes de produits logiciels complexes. L'ingénierie des lignes de produits logiciels a pour objectif de modéliser et développer une famille de produits logiciels présentant un ensemble de similarités plutôt que de modéliser et développer des produits logiciels individuels au cas par cas. La modélisation, cependant, peut se révéler une tâche difficile voir même infaisable quand il s'agit de modéliser des lignes de produits logiciels complexes et à grande échelle. Pour résoudre un tel problème, la tâche de modélisation est distribuée sur différents intervenants. Les modèles développés séparément doivent alors être composés pour obtenir le modèle global de la ligne de produits logiciels. Toutefois, la composition des modèles de lignes de produits logiciels n'est pas une tâche triviale car elle doit prendre en compte l'information de variabilité des éléments de modèles, les contraintes de variabilité, la structure des modèles manipulés et la sémantique ciblée par la composition. L'objectif de cette thèse est de fournir des mécanismes de composition des modèles de lignes de produits logiciels. Pour cela, deux mécanismes sont proposés : la fusion et l'agrégation. La fusion a pour objectif de combiner des modèles présentant des similarités au niveau de leurs éléments structurels. Alors que l'agrégation vise à composer des modèles ne possèdent pas de similarités mais plutôt d'éventuelles contraintes transversales reliant leurs éléments structurels. Les modèles utilisés sont représentés sous une vue de structures composites d'UML et incluent des annotations spécifiques des éléments variables. Les mécanismes que nous proposons traitent l'information de variabilité des éléments structurels manipulés, les contraintes de variabilités associées aux éléments annotés variables ainsi que l'aspect structurel des modèles à composer. Les mécanismes de composition proposés sont définis selon des propriétés sémantiques bien précises décrivant le but de la composition. Ces propriétés sémantiques doivent alors être vérifiées tout au long du processus de composition. A la fin, une évaluation du travail effectué permet de montrer la capacité à composer des modèles de lignes de produits logiciels en un temps raisonnable ainsi que l'importance de la consolidation des modèles structurels dans la réduction du nombre de produits structurellement incomplets.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Ben, Rhouma Takoua. „Composition des modèles de lignes de produits logiciels“. Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112299/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’inscrit dans le cadre de la gestion des modèles de lignes de produits logiciels complexes. L’ingénierie des lignes de produits logiciels a pour objectif de modéliser et développer une famille de produits logiciels présentant un ensemble de similarités plutôt que de modéliser et développer des produits logiciels individuels au cas par cas. La modélisation, cependant, peut se révéler une tâche difficile voir même infaisable quand il s’agit de modéliser des lignes de produits logiciels complexes et à grande échelle. Pour résoudre un tel problème, la tâche de modélisation est distribuée sur différents intervenants. Les modèles développés séparément doivent alors être composés pour obtenir le modèle global de la ligne de produits logiciels. Toutefois, la composition des modèles de lignes de produits logiciels n’est pas une tâche triviale car elle doit prendre en compte l’information de variabilité des éléments de modèles, les contraintes de variabilité, la structure des modèles manipulés et la sémantique ciblée par la composition. L’objectif de cette thèse est de fournir des mécanismes de composition des modèles de lignes de produits logiciels. Pour cela, deux mécanismes sont proposés : la fusion et l’agrégation. La fusion a pour objectif de combiner des modèles présentant des similarités au niveau de leurs éléments structurels. Alors que l’agrégation vise à composer des modèles ne possèdent pas de similarités mais plutôt d’éventuelles contraintes transversales reliant leurs éléments structurels. Les modèles utilisés sont représentés sous une vue de structures composites d’UML et incluent des annotations spécifiques des éléments variables. Les mécanismes que nous proposons traitent l’information de variabilité des éléments structurels manipulés, les contraintes de variabilités associées aux éléments annotés variables ainsi que l’aspect structurel des modèles à composer. Les mécanismes de composition proposés sont définis selon des propriétés sémantiques bien précises décrivant le but de la composition. Ces propriétés sémantiques doivent alors être vérifiées tout au long du processus de composition. A la fin, une évaluation du travail effectué permet de montrer la capacité à composer des modèles de lignes de produits logiciels en un temps raisonnable ainsi que l’importance de la consolidation des modèles structurels dans la réduction du nombre de produits structurellement incomplets
The Software Product Line (SPL) engineering aims at modeling and developing a set of software systems with similarities rather than individual software systems. Modeling task can be, however, tedious or even infeasible for large scale and complex SPLs. To address such a problem, the modeling task is distributed among different stakeholders. At the end, the models separately developed have to be composed in order to obtain the global SPL model. Composing SPL models is not a trivial task; variability information of model elements has to be treated during the composition, as well as the variability constraints. Similarly, the model structure and the composition semantics are key points that have to be considered during the composition. This thesis aims at providing specific mechanisms to compose SPL models. Therefore, we propose two composition mechanisms: the merge and the aggregation mechanisms. The merge mechanism aims at combining models including structural similarities. The aggregation mechanism, however, intends to compose models without any structural similarity but having eventual constraints across their structural elements. We focus on UML composite structures of SPLs and use specific annotations to identify variable elements. Our composition mechanisms deal with the variability information of structural elements, the variability constraints associated with the variable elements as well as the structures of the manipulated models. We also specify a set of semantic properties that have to be considered during the composition process and show how to preserve them. At the end, we have carried out an assessment of the proposals and have showed their ability to compose SPL models in a reasonable time. We have also showed how model consolidation is important in reducing le number of products having incomplete structure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Taffo, Tiam Raoul. „Modèles opérationnels de processus métier et d'exigences variables pour le développement de lignes de produits logiciels“. Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS268.

Der volle Inhalt der Quelle
Annotation:
Toute institution concernée par le développement de logiciels, qu’il s’agisse d’un éditeur ou d’un organisme de services, doit faire face au challenge de compétitivité : “ faire de l’économie, un «objet de première classe» en génie logiciel ”. Cet impératif de penser l’économie du logiciel, s’est traduit par l’objectif d’obtenir une meilleure maîtrise sur la productivité du développeur. La Réutilisation Logicielle (Software Reuse) est un moyen privilégié d’augmenter cette productivité, en particulier quand elle est systématisée. Deux types d’activités doivent être considérés pour améliorer la réutilisation logicielle, le développement pour la réutilisation (development for reuse) et le développement par la réutilisation (development by reuse). Plusieurs solutions ont été proposées pour contribuer au développement pour la réutilisation. L’approche lignes de produits se distingue par sa contribution au développement par la réutilisation, à travers l’assistance et l’automatisation de la sélection, la configuration, et la dérivation de nouveaux produits. Néanmoins, malgré que cette approche a positionné la réutilisation comme activité centrale dans son processus de développement, celle-ci reste difficile à réaliser dans beaucoup de situations. Par exemple, en raison de l’absence de spécification ou gestion de la variabilité qui peut se manifester dans chacun des artefacts de toutes les étapes du cycle de développement. Dans ce cadre, la problématique générale de cette thèse CIFRE consiste en l’industrialisation d’une usine logicielle par la systématisation de la réutilisation dans chacune de ses étapes et la maximisation de l’automatisation des transitions entre étapes. Afin de mieux supporter l’agilité des environnements métier, notre premier objectif est la spécification de la variabilité au sein des modèles de processus métier, de sorte que les modèles conçus soient directement utilisables dans les usines logicielles. Notre second objectif consiste à introduire la spécification de la variabilité lors de l'ingénierie des exigences permettant ainsi de systématiser leur réutilisation, et l’établissement des liens de traçabilité avec les modèles de processus métier variables précédents. Ainsi, un modèle d’architecture logicielle (orientée services) peut être généré au sein de l'usine logicielle, comme implémentation des processus métier modélisés précédemment et dans le respect des exigences spécifiées
Any organization involved in software engineering has to deal with reduction of production time and cost, in order to face the competitiveness challenge. This imperative of thinking the software economy resulted in the goal of getting better control on developer productivity. Software Reuse is a preferred way to increase the productivity, particularly when it is systematized. Two types of activities should be considered to improve software reuse, development for reuse and development by reuse. Several solutions have been proposed to contribute and improve development for reuse. For its part, product line approach is distinguished by its contribution to development by reuse through support and automation of selection, configuration, and derivation of new products. However, although this approach has positioned reuse as a core activity in its engineering process, it remains difficult to realize it in many situations. For example, due to lack of specification or management of variability which may occur in each artifacts from all steps of the engineering process. In this context, the general issue of this thesis consists in industrialization of software product line, by the contribution to systematization of reuse in each steps and automation of transitions between those steps. To better support the business agility, our first goal is the specification of variability within business process models, in order to make them directly usable into software factory. Our second goal is to introduce variability specification into requirements engineering, enabling systematic reuse of requirements models and establishing traceability links with previous models of variable business processes. Thus, an architecture model (service oriented) can be generated in software factory, as implementation of modeled business processes with compliance to specified requirements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Dumitrescu, Cosmin. „CO-OVM: Une approche pratique pour la modélisation de la variabilité en Ingénierie Système“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2014. http://tel.archives-ouvertes.fr/tel-01011186.

Der volle Inhalt der Quelle
Annotation:
Systems engineering has emerged as an approach that enables the successful realization of individual complex systems. In the automotive industry, product variety introduces a complexity that renders systems engineering models difficult to manage. Models Based Systems Engineering increases the level of abstraction and of detail to which systems are documented, thus providing the perfect context for reuse. Our purpose was to adopt "Product Line Engineering" techniques and enable efficient reuse of systems engineering assets, while satisfying process needs in an automotive industry context. The challenge is twofold: (i) to understand the needs of a mass production industry for which the reuse is usually focused towards physical parts and (ii) to satisfy the needs for capturing variability in complement to systems engineering models, by drawing on software product lines techniques. The main proposal of the thesis is a metamodel that extends OVM models in order to adopt and adapt variability modeling to MBSE needs. Furthermore, several subjects were developed around this theme of variability modeling in order to improve and complete the systems engineering framework: a derivation approach based on viewpoints and a set of recommendation-based heuristics for the configuration process. In collaboration with the CEA-LIST, a tool prototype was developed, which enabled us to refine, test and validate the contributions, in the industrial context at Renault.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Eyal, Salman Hamzeh. „Recovering traceability links between artifacts of software variants in the context of software product line engineering“. Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20008/document.

Der volle Inhalt der Quelle
Annotation:
L'ingénierie des lignes de produits logiciels (Software Product Line Engineering-SPLE en Anglais) est une discipline qui met en œuvre des principes de réutilisation pour le développement efficace de familles de produits. Une famille de produits logiciels est un ensemble de logiciels similaires, ayant des fonctionnalités communes, mais néanmoins différents selon divers aspects; nous parlerons des différentes variantes d'un logiciel. L'utilisation d'une ligne de produit permet de développer les nouveaux produits d'une famille plus vite et d'augmenter la qualité de chacun d'eux. Ces avantages sont liés au fait que les éléments communs aux membres d'une même famille (besoin, architecture, code source, etc.) sont réutilisés et adaptés. Créer de toutes pièces une ligne de produits est une tâche difficile, coûteuse et longue. L'idée sous-jacente à ce travail est qu'une ligne de produits peut être créée par la réingénierie de logiciels similaires (de la même famille) existants, qui ont été préalablement développés de manière ad-hoc. Dans ce contexte, la contribution de cette thèse est triple. La première contribution est la proposition d'une approche pour l'identification des liens de traçabilité entre les caractéristiques (features) d'une application et les parties du code source qui les implémentent, et ce pour toutes les variantes d'une application. Ces liens sont utiles pour générer (dériver) de nouveaux logiciels par la sélection de leurs caractéristiques. L'approche proposée est principalement basée sur l'amélioration de la technique conventionnelle de recherche d'information (Information Retrieval –IR en Anglais) et des approches les plus récentes dans ce domaine. Cette amélioration est liée à deux facteurs. Le premier facteur est l'exploitation des informations liées aux éléments communs ou variables des caractéristiques et du code source des produits logiciels analysés. Le deuxième facteur concerne l'exploitation des similarités et des dépendances entre les éléments du code source. Les résultats que nous avons obtenus par expérimentation confirment l'efficacité de notre approche. Dans la deuxième contribution, nous appliquons nos résultats précédents (contribution no 1) à l'analyse d'impact (Change Impact Analysis –CIA en Anglais). Nous proposons un algorithme permettant à un gestionnaire de ligne de produit ou de produit de détecter quelles les caractéristiques (choix de configuration du logiciel) impactées par une modification du code. Cet algorithme améliore les résultats les plus récents dans ce domaine en permettant de mesurer à quel degré la réalisation d'une caractéristique est impactée par une modification. Dans la troisième contribution nous exploitons à nouveau ces liens de traçabilité (contribution No 1) pour proposer une approche permettant de satisfaire deux objectifs. Le premier concerne l'extraction de l'architecture de la ligne de produits. Nous proposons un ensemble d'algorithmes pour identifier les points de variabilité architecturale à travers l'identification des points de variabilité au niveau des caractéristiques. Le deuxième objectif concerne l'identification des liens de traçabilité entre les caractéristiques et les éléments de l'architecture de la ligne de produits. Les résultats de l'expérimentation montre que l'efficacité de notre approche dépend de l'ensemble des configurations de caractéristiques utilisé (disponibles via les variantes de produits analysés)
Software Product Line Engineering (SPLE) is a software engineering discipline providing methods to promote systematic software reuse for developing short time-to-market and quality products in a cost-efficient way. SPLE leverages what Software Product Line (SPL) members have in common and manages what varies among them. The idea behind SPLE is to builds core assets consisting of all reusable software artifacts (such as requirements, architecture, components, etc.) that can be leveraged to develop SPL's products in a prescribed way. Creating these core assets is driven by features provided by SPL products.Unfortunately, building SPL core assets from scratch is a costly task and requires a long time which leads to increasing time-to-market and up-front investment. To reduce these costs, existing similar product variants developed by ad-hoc reuse should be re-engineered to build SPLs. In this context, our thesis proposes three contributions. Firstly, we proposed an approach to recover traceability links between features and their implementing source code in a collection of product variants. This helps to understand source code of product variants and facilitate new product derivation from SPL's core assets. The proposed approach is based on Information Retrieval (IR) for recovering such traceability links. In our experimental evaluation, we showed that our approach outperforms the conventional application of IR as well as the most recent and relevant work on the subject. Secondly, we proposed an approach, based on traceability links recovered in the first contribution, to study feature-level Change Impact Analysis (CIA) for changes made to source code of features of product variants. This approach helps to conduct change management from a SPL's manager point of view. This allows him to decide which change strategy should be executed, as there is often more than one change that can solve the same problem. In our experimental evaluation, we proved the effectiveness of our approach in terms of the most used metrics on the subject. Finally, based on traceability recovered in the first contribution, we proposed an approach to contribute for building Software Product Line Architecture (SPLA) and linking its elements with features. Our focus is to identify mandatory components and variation points of components. Therefore, we proposed a set of algorithms to identify this commonality and variability across a given collection of product variants. According to the experimental evaluation, the efficiency of these algorithms mainly depends on the available product configurations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Pham, Thi-Kim-Dung. „Development of Correct-by-Construction Software using Product Lines“. Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1138/document.

Der volle Inhalt der Quelle
Annotation:
Nous avons commencé la thèse par la littérature d'enquête sur les approches SPLE et CbyC dans l'état de l'art. Sur la base de l'aperçu et des connaissances obtenues, nous avons analysé les problèmes existants et suggéré des moyens de les résoudre pour notre objectif principal. Nous avons proposé dans le chapitre 2 une méthodologie pour développer des lignes de produits afin que les produits générés soient corrects par construction. Notre intention principale est qu'un utilisateur n'a pas besoin de connaître le processus de génération de produit mais peut recevoir un produit final correct en sélectionnant une configuration de fonctionnalité. En utilisant la méthodologie, les produits finaux sont générés automatiquement et leur exactitude est garantie. À la suite de cette proposition, nous sommes passés au chapitre 3 pour définir la langue de FFML qui est utilisé pour l'écriture de modules. Le mécanisme de réutilisation et de modification, défini pour la langue et appliqué à toutes sortes d'artefacts (spécification, code et preuve de précision) réduit l'effort de programmation. Au chapitre 4, nous nous sommes concentrés sur la définition des mécanismes de composition pour la composition des modules FFML et les intégrons à l'outil FFML Product Generator. L'évaluation de notre méthodologie est réalisée par le développement de deux lignes de produits logiciels, le compte bancaire SPL et le SPL de poker, ce dernier étant un peu plus complexe que le premier. Dans l'évaluation, nous avons souligné les avantages et la limitation de notre méthodologie
We began the thesis by survey literature on SPLE and CbyC approaches in the State of the Art. Based on the overview and the insights obtained, we have analyzed the existing problems and suggested ways to solve them for our main goal. We have proposed in Chapter 2 a methodology to develop product lines such that the generated products are correct-by-construction. Our main intention is that a user does not need to know the product generation process but can receive a correct final product from selecting a configuration of features. Using the methodology, the final products are generated automatically and their correctness is guaranteed. Following this proposal, we have moved in Chapter 3 to define the FFML language that is used for writing modules. The reuse and modification mechanism, defined for the language and applied to all kinds of artifacts (specification, code and correctness proof), reduce the programming effort. In Chapter 4, we have focused on defining the composition mechanisms for composing FFML modules and embedded them into the FFML Product Generator tool. The evaluation of our methodology is performed through the development of two software product lines, the Bank Account SPL and the Poker SPL, the latter being a bit more complex than the former. In the evaluation, we have highlighted the advantages and the limitation of our methodology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Martinez, Jabier. „Exploration des variantes d'artefacts logiciels pour une analyse et une migration vers des lignes de produits“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066344/document.

Der volle Inhalt der Quelle
Annotation:
Les lignes de produits logiciels (LdPs) permettent la dérivation d'une famille de produits basés sur une gestion de la variabilité. Les LdPs utilisent des configurations de caractéristiques afin de satisfaire les besoins de chaque client et, de même, permettre une réutilisation systématique en utilisant des assets réutilisables. L’approche capitalisant sur des variantes des produits existants est appelé une approche extractive pour l'adoption de LdPs. L’identification des caractéristiques est nécessaire pour analyser la variabilité d’un ensemble de variantes. Il est également nécessaire de localiser les éléments associés à ces caractéristiques. Les contraintes entre ces caractéristiques doivent être identifiées afin de garantir la sélection de configurations valides. Par ailleurs, il faut construire les assets réutilisables et synthétiser un modèle de caractéristiques. Cette thèse présente BUT4Reuse (Bottom-Up Technologies for Reuse), un framework unifié, générique et extensible pour l’adoption extractive de LdPs. Une attention particulière est accordée à des scénarios de développement dirigée par les modèles. Nous nous concentrons aussi sur l'analyse des techniques en proposant un benchmark pour la localisation de caractéristiques et une technique d’identification de familles de variantes. Nous présentons des paradigmes de visualisation pour accompagner les experts du domaine dans le nommage de caractéristiques et aider à la découverte de contraintes. Finalement, nous étudions l'exploitation des variantes pour l'analyse de la LdP après sa création. Nous présentons une approche pour trouver des variantes pertinentes guidée par des évaluations des utilisateurs finaux
Software Product Lines (SPLs) enable the derivation of a family of products based on variability management techniques. Inspired by the manufacturing industry, SPLs use feature configurations to satisfy different customer needs, along with reusable assets to allow systematic reuse. Capitalizing on existing variants by extracting the common and varying elements is referred to as extractive approaches for SPL adoption. Feature identification is needed to analyse the domain variability. Also, to identify the associated implementation elements of the features, their location is needed. In addition, feature constraints should be identified to guarantee that customers are not able to select invalid feature combinations. Then, the reusable assets associated to the features should be constructed. And finally, a comprehensive feature model need to be synthesized. This dissertation presents Bottom-Up Technologies for Reuse (BUT4Reuse), a unified, generic and extensible framework for mining software artefact variants. Special attention is paid to model-driven development scenarios. We also focus on benchmarks and in the analysis of variants, in particular, in benchmarking feature location techniques and in identifying families of variants in the wild for experimenting with feature identification techniques. We present visualisation paradigms to support domain experts on feature naming and to support on feature constraints discovery. Finally, we investigate and discuss the mining of artefact variants for SPL analysis once the SPL is already operational. Concretely, we present an approach to find relevant variants within the SPL configuration space guided by end user assessments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Martinez, Jabier. „Exploration des variantes d'artefacts logiciels pour une analyse et une migration vers des lignes de produits“. Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066344.

Der volle Inhalt der Quelle
Annotation:
Les lignes de produits logiciels (LdPs) permettent la dérivation d'une famille de produits basés sur une gestion de la variabilité. Les LdPs utilisent des configurations de caractéristiques afin de satisfaire les besoins de chaque client et, de même, permettre une réutilisation systématique en utilisant des assets réutilisables. L’approche capitalisant sur des variantes des produits existants est appelé une approche extractive pour l'adoption de LdPs. L’identification des caractéristiques est nécessaire pour analyser la variabilité d’un ensemble de variantes. Il est également nécessaire de localiser les éléments associés à ces caractéristiques. Les contraintes entre ces caractéristiques doivent être identifiées afin de garantir la sélection de configurations valides. Par ailleurs, il faut construire les assets réutilisables et synthétiser un modèle de caractéristiques. Cette thèse présente BUT4Reuse (Bottom-Up Technologies for Reuse), un framework unifié, générique et extensible pour l’adoption extractive de LdPs. Une attention particulière est accordée à des scénarios de développement dirigée par les modèles. Nous nous concentrons aussi sur l'analyse des techniques en proposant un benchmark pour la localisation de caractéristiques et une technique d’identification de familles de variantes. Nous présentons des paradigmes de visualisation pour accompagner les experts du domaine dans le nommage de caractéristiques et aider à la découverte de contraintes. Finalement, nous étudions l'exploitation des variantes pour l'analyse de la LdP après sa création. Nous présentons une approche pour trouver des variantes pertinentes guidée par des évaluations des utilisateurs finaux
Software Product Lines (SPLs) enable the derivation of a family of products based on variability management techniques. Inspired by the manufacturing industry, SPLs use feature configurations to satisfy different customer needs, along with reusable assets to allow systematic reuse. Capitalizing on existing variants by extracting the common and varying elements is referred to as extractive approaches for SPL adoption. Feature identification is needed to analyse the domain variability. Also, to identify the associated implementation elements of the features, their location is needed. In addition, feature constraints should be identified to guarantee that customers are not able to select invalid feature combinations. Then, the reusable assets associated to the features should be constructed. And finally, a comprehensive feature model need to be synthesized. This dissertation presents Bottom-Up Technologies for Reuse (BUT4Reuse), a unified, generic and extensible framework for mining software artefact variants. Special attention is paid to model-driven development scenarios. We also focus on benchmarks and in the analysis of variants, in particular, in benchmarking feature location techniques and in identifying families of variants in the wild for experimenting with feature identification techniques. We present visualisation paradigms to support domain experts on feature naming and to support on feature constraints discovery. Finally, we investigate and discuss the mining of artefact variants for SPL analysis once the SPL is already operational. Concretely, we present an approach to find relevant variants within the SPL configuration space guided by end user assessments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Collet, Philippe. „Taming Complexity of Large Software Systems: Contracting, Self-Adaptation and Feature Modeling“. Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00657444.

Der volle Inhalt der Quelle
Annotation:
Nos travaux s'inscrivent dans le domaine du génie logiciel pour les systèmes informatiques à large échelle. Notre objectif est de fournir des techniques et des outils pour aider les architectes logiciels à maîtriser la complexité toujours grandissante de ces systèmes. Principalement fondées sur des approches par ingénierie des modèles, nos contributions s'organisent autour de trois axes. Le premier axe concerne le développement de systèmes à la fois fiables et flexibles, et ce à base de composants hiérarchiques équipés de capacités de reconfiguration dynamique. Par l'utilisation de nouvelles formes de contrats logiciels, les systèmes et frameworks que nous proposons prennent en compte differents formalismes de spécification et maintiennent les contrats à jour pendant l'exécution. Une seconde partie de nos travaux s'intéresse à fournir des capacités auto-adaptatives à ces systèmes contractuels, à travers des mécanismes de négociation de contrats et des sous-systèmes de monitoring eux-mêmes auto-adaptatifs. Un troisième axe concerne les lignes de produits logiciels dans lesquelles les features models sont largement utilisés pour modéliser la variabilité. Nos contributions consistent en un ensemble d'opérateurs de composition bien définis et implémentés efficacement pour les feature models, ainsi qu'un langage dédié permettant leur gestion à large échelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Carbonnel, Jessie. „L'analyse formelle de concepts : un cadre structurel pour l'étude de la variabilité de familles de logiciels“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS057/document.

Der volle Inhalt der Quelle
Annotation:
Des familles de logiciels similaires proviennent fréquemment de pratiques de réutilisation de clones de logiciels existants, qui sont ensuite enrichis ou dépouillés de fonctionnalités pour suivre de nouvelles exigences. Avec le temps, ces variantes se multiplient et se complexifient, et il devient difficile de les maintenir, de les faire évoluer. L’ingénierie des lignes de produits logiciels regroupe un ensemble de méthodes visant à faciliter le développement et la gestion de telles collections de logiciels similaires. Documenter la variabilité est le point central de ce paradigme ; on la représente à travers des modèles de variabilité, qui servent de supports à la grande majorité des processus propres à l’ingénierie des lignes de produits. La migration complète ou partielle de ces familles de logiciels vers des approches de type lignes de produits permet la simplification de leur exploitation. La rétro-ingénierie, la modélisation et la gestion de la variabilité sont reconnues comme une phase cruciale et ardue de cette migration. Par conséquent, de nombreuses approches ont été proposées pour étudier des descriptions de familles de logiciels dans ce but. Plusieurs d’entre elles s’appuient sur l’analyse formelle de concepts, un cadre mathématique de groupement hiérarchique qui organise un ensemble d’objets et leurs descriptions dans une structure canonique mettant naturellement en évidence leurs aspects communs et variables.Dans ce manuscrit, nous défendons l'idée que l’analyse formelle de concepts, plus qu’un outil, offre un véritable cadre structurel et réutilisable à l’étude de la variabilité des familles de produits.Dans un premier temps, nous établissons un panorama des informations sur la variabilité qui sont mises en évidence grâce à ce formalisme, et discutons de son spectre d’applicabilité. Nous étudions les points communs entre les structures conceptuelles produites par l’analyse formelle de concepts et les modèles de variabilité. Dans un second temps, nous illustrons l’utilisation originale de ces structures conceptuelles comme support à des opérations de conception et de recherche d’informations. Enfin, nous élargissons notre champ d’étude aux informations plus complexes définies par des modèles de variabilité qui ont été étendus pour en améliorer l’expressivité, et dont la rétro-ingénierie est encore peu étudiée à ce jour. Nous montrons comment certaines propriétés de l’analyse formelle de concepts permettent de généraliser son utilisation à des descriptions de variantes plus complexes, et étudions son application pour la manipulation d’attributs multivalués et de cardinalités, en complément des caractéristiques booléennes traditionnelles. Nous évaluons notre approche sur des données issues de dépôts tels que SPLOT, fork-insight et de matrices de comparaison de produits de wikipedia
Software families often rise from reuse practices as cloning existing software products which are then enhanced or pruned to fulfill new requirements. With time, these variants grow in number and in complexity, and become more and more complex to maintain. Software product line engineering gathers a set of methods that aims at facilitating the management and development of such collections of existing variants. Documenting variability is the central point of this paradigm; This variability is represented in variability models that support a large part of software product line engineering processes.The partial or complete migration from software families to a product line approach eases their exploitation.Reverse-engineering, modeling and managing variability are known as crucial tasks of the migration: therefore, numerous methods have been proposed to study descriptions of software families for this goal.Some of them are based on formal concept analysis, a mathematical framework for hierarchical clustering which organises set of objects and their descriptions in canonical structures highlighting naturally their commonalities and variability.In this thesis, we defend that formal concept analysis, more than a tool, is a relevant structural, reusable and extensible framework to study variability of software families.First, we propose an overview of variability information which is highlighted thanks to this framework, and we discuss its scope of applicability.We study the common points between the conceptual structures of formal concept analysis and variability models.Then, we show how to use these conceptual structures to support research and modeling operations.Finally, we broaden the scope of this study to take into account more complex information about extended variability.We evaluate our method on data taken from the SPLOT repository, fork-insight and product comparison matrices from wikipedia
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Pham, Thi-Kim-Dung. „Development of Correct-by-Construction Software using Product Lines“. Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1138.

Der volle Inhalt der Quelle
Annotation:
Nous avons commencé la thèse par la littérature d'enquête sur les approches SPLE et CbyC dans l'état de l'art. Sur la base de l'aperçu et des connaissances obtenues, nous avons analysé les problèmes existants et suggéré des moyens de les résoudre pour notre objectif principal. Nous avons proposé dans le chapitre 2 une méthodologie pour développer des lignes de produits afin que les produits générés soient corrects par construction. Notre intention principale est qu'un utilisateur n'a pas besoin de connaître le processus de génération de produit mais peut recevoir un produit final correct en sélectionnant une configuration de fonctionnalité. En utilisant la méthodologie, les produits finaux sont générés automatiquement et leur exactitude est garantie. À la suite de cette proposition, nous sommes passés au chapitre 3 pour définir la langue de FFML qui est utilisé pour l'écriture de modules. Le mécanisme de réutilisation et de modification, défini pour la langue et appliqué à toutes sortes d'artefacts (spécification, code et preuve de précision) réduit l'effort de programmation. Au chapitre 4, nous nous sommes concentrés sur la définition des mécanismes de composition pour la composition des modules FFML et les intégrons à l'outil FFML Product Generator. L'évaluation de notre méthodologie est réalisée par le développement de deux lignes de produits logiciels, le compte bancaire SPL et le SPL de poker, ce dernier étant un peu plus complexe que le premier. Dans l'évaluation, nous avons souligné les avantages et la limitation de notre méthodologie
We began the thesis by survey literature on SPLE and CbyC approaches in the State of the Art. Based on the overview and the insights obtained, we have analyzed the existing problems and suggested ways to solve them for our main goal. We have proposed in Chapter 2 a methodology to develop product lines such that the generated products are correct-by-construction. Our main intention is that a user does not need to know the product generation process but can receive a correct final product from selecting a configuration of features. Using the methodology, the final products are generated automatically and their correctness is guaranteed. Following this proposal, we have moved in Chapter 3 to define the FFML language that is used for writing modules. The reuse and modification mechanism, defined for the language and applied to all kinds of artifacts (specification, code and correctness proof), reduce the programming effort. In Chapter 4, we have focused on defining the composition mechanisms for composing FFML modules and embedded them into the FFML Product Generator tool. The evaluation of our methodology is performed through the development of two software product lines, the Bank Account SPL and the Poker SPL, the latter being a bit more complex than the former. In the evaluation, we have highlighted the advantages and the limitation of our methodology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Boufedji, Dounia. „Vers une approche d’ingénierie multi-agents à base de lignes de produits logiciels“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS438.

Der volle Inhalt der Quelle
Annotation:
Les Systèmes Multi-Agents (SMA) représentent une solution idéale qui a fait ses preuves pour la modélisation de systèmes complexes. L’ingénierie des SMA offre différentes méthodologies, méta-modèles, templates et patrons de réutilisation qui facilitent leur développement et accélère leur acceptation au sein de l’industrie du logiciel. Cependant, les approches existantes de l’ingénierie des SMA ne permettent pas la gestion et le développement d’applications similaires dites familles de SMA. Ces applications présentent des points communs, et des différences appelées variabilité. La gestion de la variabilité peut se faire à différents niveaux (conception, développement et autre), sauf qu’elle n’est pas prise en considération dans les approches existantes. Afin de pallier à la non gestion de variabilité au sein des familles multi-agents au niveau des approches orientées agents, l’ingénierie de Lignes de Produits logiciels s’avère être la solution idoine pour laquelle la gestion de la variabilité reste un élément clé. Dans ce contexte, l’exploitation des techniques d’ingénierie de LdPL dans le cadre d’approches multi-agents est connue sous l’appellation d’ingénierie MAS-PL (Multi-agent systems Product Lines). Le présent sujet de thèse s’inscrit dans cette thématique d’approches MAS-PL afin d’améliorer la gestion de la variabilité au sein de familles de SMA, et par conséquent rendre meilleurs les aspects de réutilisation s’articulant autour de la variabilité. Notre approche repose sur le processus général des LdPL, repousse les limites des approches MAS-PL actuelles. L’originalité de notre approche est qu’elle permet une réutilisation indépendante du domaine d’application
Multi-Agent Systems represent an ideal solution that has already proved positive for the modelling of complex systems. The AOSE (Agent Oriented Software Engineering) offers different methodologies, meta-models, templates and reuse patterns that facilitate their development and accelerate their acceptance within the software industry. However, the existing approaches to MAS engineering do not allow the management and development of similar applications known as MAS families. These applications have some commonalities, as well as differences called variability. The management of variability can be done at different levels such as design and development, except that it is not taken into account in existing approaches. In order to compensate for the lack of variability management within multi-agent families at the level of agent-oriented approaches, SPL (Software Product Lines) engineering turns out to be the appropriate solution for which the management of variability remains a key element. In this context, the exploitation of SPL engineering techniques within the framework of multi-agent approaches is known as Multi-agent systems Product Lines engineering. This thesis subject is part of this thematic of MAS-PL approaches meant to enhance the management of variability within families of MAS; what, consequently, improves the aspects of reuse revolving around variability. This is how our approach, which is based on the general SPL process, in favour of an improvement, pushes the limits of current MAS-PL approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Tërnava, Xhevahire. „Gestion de la variabilité au niveau du code : modélisation, traçabilité et vérification de cohérence“. Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4114/document.

Der volle Inhalt der Quelle
Annotation:
Durant le développement de grandes lignes de produits logiciels, un ensemble de techniques d’implémentation traditionnelles, comme l’héritage ou les patrons de conception, est utilisé pour implémenter la variabilité. La notion de feature, en tant qu’unité réutilisable, n’a alors pas de représentation de première classe dans le code, et un choix inapproprié de techniques entraîne des incohérences entre variabilités du domaine et de l’implémentation. Dans cette thèse, nous étudions la diversité de la majorité des techniques d’implémentation de la variabilité, que nous organisons dans un catalogue étendu. Nous proposons un framework pour capturer et modéliser, de façon fragmentée, dans des modèles techniques de variabilité, la variabilité implémentée par plusieurs techniques combinées. Ces modèles utilisent les points de variation et les variantes, avec leur relation logique et leur moment de résolution, pour abstraire les techniques d’implémentation. Nous montrons comment étendre le framework pour obtenir la traçabilité de feature avec leurs implémentations respectives. De plus, nous fournissons une approche outillée pour vérifier la cohérence de la variabilité implémentée. Notre méthode utilise du slicing pour vérifier partiellement les formules de logique propositionnelles correspondantes aux deux niveaux dans le cas de correspondence 1–m entre ces niveaux. Ceci permet d’obtenir une détection automatique et anticipée des incohérences. Concernant la validation, le framework et la méthode de vérification ont été implémentés en Scala. Ces implémentations ont été appliquées à un vrai système hautement variable et à trois études de cas de lignes de produits
When large software product lines are engineered, a combined set of traditional techniques, such as inheritance, or design patterns, is likely to be used for implementing variability. In these techniques, the concept of feature, as a reusable unit, does not have a first-class representation at the implementation level. Further, an inappropriate choice of techniques becomes the source of variability inconsistencies between the domain and the implemented variabilities. In this thesis, we study the diversity of the majority of variability implementation techniques and provide a catalog that covers an enriched set of them. Then, we propose a framework to explicitly capture and model, in a fragmented way, the variability implemented by several combined techniques into technical variability models. These models use variation points and variants, with their logical relation and binding time, to abstract the implementation techniques. We show how to extend the framework to trace features with their respective implementation. In addition, we use this framework and provide a tooled approach to check the consistency of the implemented variability. Our method uses slicing to partially check the corresponding propositional formulas at the domain and implementation levels in case of 1–to–m mapping. It offers an early and automatic detection of inconsistencies. As validation, we report on the implementation in Scala of the framework as an internal domain specific language, and of the consistency checking method. These implementations have been applied on a real feature-rich system and on three product line case studies, showing the feasibility of the proposed contributions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Filho, João Bosco Ferreira. „Leveraging model-based product lines for systems engineering“. Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S080/document.

Der volle Inhalt der Quelle
Annotation:
Actuellement, de nombreuses entreprises ont besoin de construire des versions\variantes légèrement différentes d'un même système. Ces versions partagent des points communs et des différences, le tout pouvant être géré à l'aide d'une approche ligne de produits (SPL). L'objectif principal d'une SPL est d'exploiter la personnalisation de masse, dans laquelle les produits sont réalisés pour répondre aux besoins spécifiques de chaque client. Pour répondre à ce besoin de personnalisation, les systèmes doivent être étendus de manière efficace, ou modifiés, configurés pour être utilisé dans un contexte particulier. Une approche encourageante consiste à connecter l'approche MDE (l'ingénierie dirigée par les modèles) à l'approche SPL – les SPL basées sur les modèles (MSPL). L'espace de conception, l'environnement du système logiciel que l'on construit (i.e., l'ingénierie du domaine) d'une MSPL est extrêmement complexe à gérer pour un ingénieur. Tout d'abord, le nombre possible des produits d'une MSPL est exponentielle au nombre d'éléments ou de décisions exprimé dans le modèle de variabilité. Ensuite, les modèles de produits dérivés doivent être conformes à de nombreuses règles liées au domaine métier mais aussi aux langages de modélisation utilisés. Troisièmement, le modèle de réalisation qui relie un modèle de variabilité et un modèle de base peut être très expressif. En plus, il faut ajouter que les ingénieurs système utilisent différents langages de modélisation dédiés dans le cadre de projets pour la réalisation de systèmes critiques. Nos contributions sont basées sur le fait qu'une solution générique, pour tous les domaines, et qui dérive des modèles corrects n'est pas réaliste, surtout si on prend en considération le contexte des systèmes complexes décrits précédemment. Nous proposons une approche indépendante du domaine pour générer des contre-exemples de MSPLs, révélant des erreurs de conceptions de modèles et supportant les parties prenantes à construire de meilleures MSPLs et des mécanismes de dérivation plus efficaces. Plus précisément, la première et principale contribution de la thèse est un processus systématique et automatisé, basé sur CVL (common variability language), pour la recherche aléatoire de contre-exemples de MSPL dans un langage donné. La seconde contribution de la thèse est un étude sur les mécanismes pour étendre la sémantique des moteurs de dérivation, offrant une approche basée sur des modèles à fin de personnaliser leurs sémantique opérationnelle. Dans la troisième contribution de la thèse, nous présentons une étude empirique à large échelle sur le langage Java en utilisant notre approche générative. La quatrième et dernière contribution de la thèse est une méthodologie pour intégrer notre travail dans une organisation qui cherche à mettre en œuvre les lignes de produit logiciels basées sur des modèles pour l'ingénierie des systèmes
Systems Engineering is a complex and expensive activity in several kinds of companies, it imposes stakeholders to deal with massive pieces of software and their integration with several hardware components. To ease the development of such systems, engineers adopt a divide and conquer approach : each concern of the system is engineered separately, with several domain specific languages (DSL) and stakeholders. The current practice for making DSLs is to rely on the Model-driven Engineering (MDE. On the other hand, systems engineering companies also need to construct slightly different versions/variants of a same system; these variants share commonalities and variabilities that can be managed using a Software Product Line (SPL) approach. A promising approach is to ally MDE with SPL – Model-based SPLs (MSPL) – in a way that the products of the SPL are expressed as models conforming to a metamodel and well-formedness rules. The Common Variability Language (CVL) has recently emerged as an effort to standardize and promote MSPLs. Engineering an MSPL is extremely complex to an engineer: the number of possible products is exponential; the derived product models have to conform to numerous well- formedness and business rules; and the realization model that connects a variability model and a set of design models can be very expressive specially in the case of CVL. Managing variability models and design models is a non-trivial activity. Connecting both parts and therefore managing all the models is a daunting and error-prone task. Added to these challenges, we have the multiple different modeling languages of systems engineering. Each time a new modeling language is used for developing an MSPL, the realization layer should be revised accordingly. The objective of this thesis is to assist the engineering of MSPLs in the systems engineering field, considering the need to support it as earlier as possible and without compromising the existing development process. To achieve this, we provide a systematic and automated process, based on CVL, to randomly search the space of MSPLs for a given language, generating counterexamples that can server as antipatterns. We then provide ways to specialize CVL’s realization layer (and derivation engine) based on the knowledge acquired from the counterexamples. We validate our approach with four modeling languages, being one acquired from industry; the approach generates counterexamples efficiently, and we could make initial progress to increase the safety of the MSPL mechanisms for those languages, by implementing antipattern detection rules. Besides, we also analyse big Java programs, assessing the adequacy of CVL to deal with complex languages; it is also a first step to assess qualitatively the counterexamples. Finally, we provide a methodology to define the processes and roles to leverage MSPL engineering in an organization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Cornieles, Ernesto. „Étude théorique et expérimentale d'un résonateur ultrasonore composé : développement d'un logiciel basé sur l'analogie des lignes électriques“. Thèse, Université du Québec à Trois-Rivières, 1992. http://depot-e.uqtr.ca/5233/1/000601770.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

El, Gueder Jawhar. „Modèle et logiciel KBE pour l'intégration du chainage des opérations de fabrication en conception de produit“. Troyes, 2012. http://www.theses.fr/2012TROY0018.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés traitent de l’intégration du chainage de l’ensemble des opérations de fabrication lors de la conception de pièces mécaniques (Design For Manufacturing). Nous avons alors développé un logiciel capable de gérer l’historique de fabrication de la pièce et de faire émerger le modèle CAO, les données de qualités, de rugosité et les états mécaniques (contraintes résiduelles) de la pièce à partir du choix des opérations de fabrication. Il gère en effet le chaînage des différentes opérations pour prendre en compte la gamme complète de fabrication. La modélisation des informations est basée dans un premier temps sur l’identification des relations qui peuvent exister entre les caractéristiques du produit et les paramètres des procédés. Dans un second temps ces informations sont intégrées dans le processus de conception des pièces grâce à la définition d’un modèle d’interface produit-procédés basé sur la notion de flux de matière mis en forme par les procédés de fabrication. La solution développée est composée de plusieurs modules assurant une flexibilité et une évolution de l’architecture en fonction de son contexte d’utilisation (entreprise, procédés…) : un module de connaissances produit-procédés (Knowledge Based Engineering), un module de modélisation d’interface produit-procédés et un module de calcul numérique par éléments finis permettant le calcul des états mécaniques. L’application à une pièce laminée usinée puis grenaillée sert de démonstrateur pour illustrer les développements
CAD-centred design process and information related to the manufacturing is only selected and assessed subsequently. This work presents an original approach in mechanical design to integrate the manufacturing constraints in the CAD model while it is being built. A specific user-interface is proposed to integrate manufacturing constraints (for example tolerances) and manufacturing consequences (for example roughness or hardening) into the model. The tool includes three modules: a knowledge base engineering data base for manufacturing processes, a geometric modeller and a link to a finite element code. It is the possible to consider several manufacturing processes and chain the different operation and hence to build the model of the part knowing the manufacturing history. One of the important consequences of manufacturing processes is the generation of residual stresses into the part. An appropriate tool has been developed and used as a design tool to manage the global evolution of residual stresses in the mechanical part. To support the model, a database is used for the integration of residual stresses from stored experimental results, analytical or numerical calculations. An example of a metal sheet deformed by shot peening is treated, the deformed geometry is rebuilt and compared to the experimental results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Picard, Aubry. „Analyse du couplage électromagnétique produit par un objet installé dans une cellule TEM 3D“. Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-73.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans le contexte de l'étude d'une nouvelle structure appelée cellule TEM tridimensionnelle ou cellule TEM-3D (brevetée en 2000 par l'INRETS), conçue pour être utilisée dans le cadre d'essais en compatibilité électromagnétique (CEM). Par rapport à la cellule TEM classique, la cellule TEM-3D présente l'avantage de ne nécessiter théoriquement aucune manipulation intermédiaire de l'équipement testé, grâce aux trois paires de septa disposées orthogonalement dans la cavité. Cette spécificité entraîne également un gain de temps appréciable pour effectuer les mesures. L'étude effectuée s'est dans un premier temps focalisée sur les caractéristiques de champ électromagnétique qu'il est possible de générer au centre de la cellule à l'aide d'excitations différentielles. Des résultats de simulations numériques ont montré que l'on parvient à dégager un volume d'essai vérifiant une uniformité de champ satisfaisante dans le contexte d'essais CEM (volume cubique de 20 cm de côté où le module de champ E est compris dans une fourchette de ± 1dBV. M-¹). De plus, on montre qu'en jouant sur l'excitation des différentes paires de septa on peut maîtriser la polarisation du champ. Ensuite nous avons présenté une modélisation électrique des phénomènes de couplage champ proche entre une boucle de courant et un septum. Ce modèle, s'inspirant des travaux de Taylor, propose de représenter le transfert de puissance à l'aide de générateurs de tension (couplage inductif) et de générateurs de courant (couplage capacitif). Nous avons ainsi obtenu une bonne concordance avec les mesures effectuées aux accès de différents septa, adaptés ou non (50 ohms et 360 ohms) et pour plusieurs configurations (en espace libre et dans la cellule TEM-3D). Durant ces expérimentations nous avons également mis en évidence l'impact du câble d'alimentation sur les résultats de mesure. Enfin nous nous sommes appuyés sur ces conclusions pour proposer une caractérisation magnétique d'un objet sous test quelconque, ainsi qu'une nouvelle structure maximisant le couplage de type inductif.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Habhouba, Dounia. „Assistance à la prise de decision dans le processus de modification d'un produit en utilisant la technologie "Agent logiciel"“. Thèse, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1826.

Der volle Inhalt der Quelle
Annotation:
La gestion des changements d'ingénierie représente un défi pour les industriels dans le domaine de la conception mécanique assistée par ordinateur. Le système CAO est généralement entouré par d'autres systèmes tels que les SGDT les PGI ou autres. Pour que la gestion des changements soit entreprise efficacement, le système CAO doit être bien intégré avec les systèmes qui l'entourent. La communication entre les différentes équipes multidisciplinaires travaillant sur un projet a un impact positif sur le processus de gestion des changements dans sa globalité. Actuellement, la communication entre les disciplines se fait à l'aide d'échange de messages. Les experts sentent parfois le besoin de se rencontrer afin de se mettre d'accord sur le changement demandé. L'industrie de la CAO a donc besoin d'un système qui assiste l'humain dans la prise de décisions concernant les demandes de changements d'ingénierie. Un tel système diminuera considérablement le temps de traitement des demandes. Ce projet de doctorat propose de réaliser un outil de collaboration qui assiste les concepteurs dans le processus de gestion des changements. Le système proposé assure une certaine cohérence à travers les différentes disciplines impliquées dans ce processus. C'est également un outil d'aide à la décision dans la mesure où il va proposer des solutions alternatives si jamais la demande de changement n'est pas validée. Nous avons également réalisé la propagation externe des modifications. Cette une étape qui était complètement intégrée à notre projet, car il fallait qu'on importe des données du système CAO pouvoir les traiter dans le système de gestion des changements. La technologie"Agent logiciel" est utilisée pour implémenter le système proposé. L'approche"Agent" présente certains avantages par rapport à l'approche classique Client/Serveur. Elle permet justement de minimiser le nombre de requêtes sur le réseau (avec la propriété de mobilité). Dans le système chaque agent représente une expertise donnée et il y a un Agent gestionnaire qui contrôle la communication entre les différentes disciplines.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Lefebvre, Frédéric. „Contribution à la modélisation pour le diagnostic des systèmes complexes : application à la signalisation des lignes à grande vitesse“. Valenciennes, 2000. https://ged.uphf.fr/nuxeo/site/esupversions/dd5382c4-64ce-45c5-aa00-21f80af16cf3.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire constituent une contribution à un domaine de la maintenance corrective des dispositifs techniques : le diagnostic et plus précisément la localisation des pannes. Ces travaux se sont basés sur la mise en œuvre du diagnostic d'une application réelle, la TVM 430, c'est à dire le système d'espacement et de signalisation en cabine des TGV. Tout en restant proche des problèmes soulevés par cette application, nous avons essayé de proposer une démarche générique applicable à d'autres types de dispositifs techniques. Nous avons opté pour le choix du diagnostic à base de modèle car il est bien adapté aux systèmes sur lesquels peu d'expertise est disponible. De plus la connaissance propre au dispositif est concentrée dans des modèles qui peuvent être crées a partir des seuls documents de conception. Les trois modèles structurel, comportemental et fonctionnel que nous avons utilisés pour contenir la connaissance sur le dispositif ont été choisis en fonction de leur utilisation, le diagnostic, et en fonction des informations disponibles à partir des données de conception. Par conséquent, chaque modèle correspond à un niveau épistémologique et a fait ses preuves dans la littérature dédiée au diagnostic. La démarche utilisée pour créer les trois modèles est issue du génie logiciel (tests unitaires, tests d'intégration, non-régression des modifications) pour diminuer la difficulté de la phase de déverminage. Cette phase de déverminage des modèles est entreprise de manière originale en adaptant la théorie du diagnostic sur des scénarios de panne. Ceux-ci fournissent les candidats que l'on doit obtenir. On ne pose donc plus des hypothèses sur le bon fonctionnement de ces composants mais sur des hypothèses de correction-complétude des observations ou des hypothèses de correction-complétude sur les modèles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Istoan, Paul. „Methodology for the derivation of product behaviour in a Software Product Line“. Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00925479.

Der volle Inhalt der Quelle
Annotation:
The major problem addressed in this thesis is the definition of a new SPLE methodology that covers both phases of the SPLE process and focuses on the derivation of behavioral models of SPL products. In Chapter 2 three research areas scope context of this thesis: Software Product Lines, Business Processes, and Model-Driven Engineering. Throughout Chapter 3, we propose a new SPLE methodology that focuses on the derivation of product behavior. We first describe the main flow of the methodology, and then detail the individual steps. In chapter 4 we propose a new domain specific language called CBPF created for modeling composable business process fragments. A model driven approach is followed for creating CBPF: definition of the abstract syntax, graphical concrete syntax and translational semantics. In Chapter 5 we propose several types of verifications that can be applied to business processfragments to determine their "correctness". For structural verification we definine a set of fragment consistency rules that should be valid for every business process fragment created with CBPF. To check behavioral correctness we first transform the business process fragment into an equivalent HCPN. We can then check generic properties but also define aset of fragment specific properties. In chapter 6 we exemplify the proposed SPL methodology by applying it to a case study from the crisis management system domain. We also propose a tool suite that supports our methodology. Chapter 7 describes possible improvements and extensions to the contributions of this thesis. We conclude the thesis in Chapter 8 and draw some conclusions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Ahmed-Nacer, Mohamed. „Un modèle de gestion et d'évolution de schéma pour les bases de données de génie logiciel“. Grenoble INPG, 1994. http://www.theses.fr/1994INPG0067.

Der volle Inhalt der Quelle
Annotation:
"la 4e de couverture indique : Dans cette thèse, nous nous intéressons à l'évolution des schémas pour les bases de données de génie logiciel
Nous faisons d'abord le point des travaux concernant l'évolution de schémas et l’évolution des modèles de procédés logiciels ; nous définissons des critères d'évolution et nous montrons que les principales approches ne satisfont pas les besoins en génie logiciel
Nous présentons ensuite notre modèle : celui-ci permet l'existence simultanée de plusieurs points de vues de la base d'objets, la composition de schémas et enfin, l'expression de politiques différentes d'évolution de ces schémas ; chaque application pouvant définir la politique d’évolution souhaitée<
La gestion des points de vue se fonde sur le versionnement de la métabase. Le maintien de la cohérence de la base d'objets et du système global de gestion et d'évolution de schémas est assuré par l'expression de contraintes au niveau de cette métabase. La composition des schémas utilise une technique de configurations de logiciels appliqués aux types et la définition de politique d’évolution utilise les capacités de la base active du système Adèle"
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Martinez-Leal, Jorge. „Développement d’outils d’aide à la décision en conception pilotés par l’analyse multicritère de la valorisabilité du produit et l’outillage des lignes directrices d’écoconception pour la fin de vie“. Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0062.

Der volle Inhalt der Quelle
Annotation:
Les règlementations incitent aujourd’hui concepteurs et fabricants à s,engager dans des démarches d'économie circulaire et d'écoconception pour atténuer l'impact de leurs produits sur l'environnement. Les choix de conception sont à ce jour essentiellement pilotés par l'évaluation de la valorisable du produit. Les lignes directrices associées aux démarches de conception pour X sont utilisées ensuite comme outil d'aide à la décision pour la recherche de solutions. Un lien entre la valorisabilité évaluée dès lors et les lignes directrices d’écoconception doit donc être établi pour que le concepteur puisse mieux interpréter les informations auxquelles il est confronté, et simplifier d’autant son processus de conception. Un inventaire de ces guides couplé à une démarche d’écoconception pour la fin de vie permet alors d’identifier différents leviers d’action. Cependant, il n’existe qu’une faible adéquation entre les indicateurs de valorisabilité et les leviers associés aux lignes directrices. Ce travail vise ainsi à proposer une méthodologie outillée d’aide à la décision en conception, basée sur l’analyse multicritère de la valorisabilité du produit et complétée par un guide outillé s’appuyant sur diverses lignes directrices d’écoconception pour la fin de vie. L’approche proposée est validée par l'étude de l’intégration d’un Fairphone® dans la filière des DEEE
Current regulations encourage designers and manufacturers to engage in circular economy and eco-design approaches in order to mitigate the environmental impact of their products. Today, design choices are mainly driven by product recoverability assessment. Guidelines associated with design for X approaches are then used as a decision-making tool for finding solutions. It is therefore necessary to establish a link between the assessed recoverability and eco-design guidelines so that designers can better interpret the information they are given and simplify their design process accordingly. An inventory of these guidelines combined with an eco-design for an end-of-life approach makes it possible to identify the associated levers for action. However, there is only minimal correlation between recoverability indicators and the levers associated with the guidelines. Therefore, this proposal aims to build an indicator-based decision-making design methodology based on a multi-criteria analysis of the product's recoverability. It is enhanced by a tooled guide based on eco-design for end-of-life guidelines. The proposed approach has been validated through the study of a Fairphone® included in the WEEE recycling chain
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Huynh, Ngoc Tho. „A development process for building adaptative software architectures“. Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0026/document.

Der volle Inhalt der Quelle
Annotation:
Les logiciels adaptatifs sont une classe de logiciels qui peuvent modifier leur structure et comportement à l'exécution afin de s'adapter à des nouveaux contextes d'exécution. Le développement de logiciels adaptatifs a été un domaine de recherche très actif les dix dernières années. Plusieurs approches utilisent des techniques issues des lignes des produits afin de développer de tels logiciels. Ils proposent des outils, des frameworks, ou des langages pour construire des architectures logicielles adaptatives, mais ne guident pas les ingénieurs dans leur utilisation. De plus, ils supposent que tous les éléments spécifiés à la conception sont disponibles dans l'architecture pour l'adaptation, même s'ils ne seront jamais utilisés. Ces éléments inutiles peuvent être une cause de soucis lors du déploiement sur une cible dont l'espace mémoire est très contraint par exemple. Par ailleurs, le remplacement de composants à l'exécution reste une tâche complexe, elle doit assurer non seulement la validité de la nouvelle version, mais aussi préserver la terminaison correcte des transactions en cours. Pour faire face à ces problèmes, cette thèse propose un processus de développement de logiciels adaptatifs où les tâches, les rôles, et les artefacts associés sont explicites. En particulier, le processus vise la spécification d'informations nécessaires pour construire des architectures logicielles adaptatives. Le résultat d'un tel processus est une architecture logicielle adaptative qui contient seulement des éléments utiles pour l'adaptation. De plus, un mécanisme d'adaptation est proposé basé sur la gestion de transactions pour assurer une adaptation dynamique cohérente. Elle assure la terminaison correcte des transactions en cours. Nous proposons pour cela la notion de dépendance transactionnelle : dépendance entre des actions réalisées par des composants différents. Nous proposons la spécification de ces dépendances dans le modèle de variabilité, et de l'exploiter pour décider des fonctions de contrôle dans les composants de l'architecture, des fonctions qui assurent une adaptation cohérente à l'exécution
Adaptive software is a class of software which is able to modify its own internal structure and hence its behavior at runtime in response to changes in its operating environment. Adaptive software development has been an emerging research area of software engineering in the last decade. Many existing approaches use techniques issued from software product lines (SPLs) to develop adaptive software architectures. They propose tools, frameworks or languages to build adaptive software architectures but do not guide developers on the process of using them. Moreover, they suppose that all elements in the SPL specified are available in the architecture for adaptation. Therefore, the adaptive software architecture may embed unnecessary elements (components that will never be used) thus limiting the possible deployment targets. On the other hand, the components replacement at runtime remains a complex task since it must ensure the validity of the new version, in addition to preserving the correct completion of ongoing activities. To cope with these issues, this thesis proposes an adaptive software development process where tasks, roles, and associate artifacts are explicit. The process aims at specifying the necessary information for building adaptive software architectures. The result of such process is an adaptive software architecture that only contains necessary elements for adaptation. On the other hand, an adaptation mechanism is proposed based on transactions management for ensuring consistent dynamic adaptation. Such adaptation must guarantee the system state and ensure the correct completion of ongoing transactions. In particular, transactional dependencies are specified at design time in the variability model. Then, based on such dependencies, components in the architecture include the necessary mechanisms to manage transactions at runtime consistently
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Verdier, Frédéric. „COMpOSER : a model-driven software product line approach for an effective management of software reuse within software product families and populations“. Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS117.

Der volle Inhalt der Quelle
Annotation:
Avec la constante croissance en taille et en complexité des systèmes logiciels, l'industrie logicielle est poussée à migrer ses processus de développements manuels, réalisant chaque produit individuellement et lentement, vers des procédés systématiques et automatisés, produisant massivement des logiciels et à moindre coût. Cette migration, que nous appelons industrialisation, peut être réalisée en favorisant à la fois la réutilisation logicielle systématique et l'automatisation dans les phases de développement. Favoriser ces pratiques permet la réalisation de produits de meilleure qualité à coût réduit. Les approches existantes combinant l'Architecture Dirigée par les Modèles (MDA) et l'Ingénierie des Lignes de Produits Logiciels (SPLE) automatisent la réutilisation dans leurs processus de développement en exploitant les avantages de MDA et SPLE. Tandis que MDA permet aux développeurs de définir des artefacts hautement réutilisables et des opérations automatiques à effectuer sur ces artefacts, SPLE systématise la réutilisation en s'appuyant sur les similarités et les différences d'un ensemble de produits similaires appelé famille de produits logiciels. Cependant, ces combinaisons souffrent de deux restrictions majeures pouvant être un frein aux entreprises souhaitant industrialiser leurs processus en utilisant ces solutions. D’une part, il leur est difficile de gérer efficacement la variabilité. En effet, la complexité des opérations effectuées sur les artefacts dépend du nombre de points de variation à gérer. D'autre part, ces approches se limitent à gérer la variabilité au sein d'une famille de produits. Or, dans certains contextes comme les sociétés de services, la variabilité peut concerner un ensemble plus hétérogène de produits nommé population de produits. Bien que certains travaux proposent de gérer la variabilité au sein d'une population de produits, ces derniers, en proposant de composer des lignes de produits indépendantes, limitent la composition, et ainsi la réutilisation, d'artefacts à gros grain.Dans cette thèse, nous proposons une nouvelle approche nommée COMpOSER (CrOss-platform MOdel-driven Software product line EngineeRing) définissant une solution efficace pour composer MDA et SPLE afin d'exploiter intégralement la variabilité à la fois d'une famille mais également d'une population de produits logiciels. Pour cela, COMpOSER introduit une nouvelle caractérisation de la variabilité pour organiser des artefacts réutilisables selon trois dimensions : la dimension métier ; la dimension architecturale ; et la dimension des écosystèmes technologiques. De plus, cette caractérisation distingue la variabilité inter-domaine, responsable de l'organisation des différentes familles au sein d'une population, et la variabilité intra-domaine, organisant les artefacts dans chaque famille. Afin d'organiser correctement ces artefacts, COMpOSER définit un modèle d'artefacts réutilisables à fine granularité étant compatible avec cette caractérisation. Par ailleurs, notre approche définit des opérations partiellement automatisées systématisant la réutilisation d'artefacts lors de la production de nouveaux logiciels sans induire de difficulté de passage à l'échelle avec l'ajout de nouveaux points de variation. Grâce à notre collaboration avec un partenaire industriel, nous avons pu expérimenter COMpOSER pour aider à l'industrialisation des processus de développement de l'entreprise. Ainsi, nous avons réalisé un framework qui réifie notre approche tout en considérant les spécificités de notre contexte industriel. Cet outil traduit les principes de COMpOSER dans un langage adapté à des développeurs sans expertise en SPLE ou MDA, facilitant ainsi l'adoption de nos solutions par les équipes de développements de l'entreprise. Nous avons obtenu des résultats démontrant que notre approche améliore la réutilisation logicielle systématique comparativement à des solutions concurrentes sur des cas d'études industriels concrets
Software systems are constantly increasing in size and complexity, forcing the software industry to migrate their hand-craft development processes, slowly realizing each product, to more systematized and automated ones, mass-producing software at lower costs. This migration process, that we call industrialization, can be achieved through the integration of systematic software reuse and automation in their development processes. Their combination results in the realization of sounder products at lower costs. Existing approaches combining Model-Driven Architecture (MDA) and Software Product Line Engineering (SPLE) partially automate development processes with systematic software reuse by capitalizing on their compatible benefits. While MDA permits developers to define highly reusable assets and automatic operations to perform on them, SPLE systematizes software reuse by relying on the commonalities and variabilities of a set of related products named a software product family. However, these approaches suffer from two major restrictions that can be a brake for companies aiming to industrialize their development processes using these solutions. Firstly, they have difficulties to fully manage variability at different levels of abstraction because of the rapidly increasing complexity of operations performed on assets alongside the addition of new variation points. Then, existing combinations of MDA and SPLE are limited to the management of variability in a software product family. But, in some contexts such as IT services companies, variability can be related to more heterogeneous sets of products than families named software product populations. Although some existing works propose to manage the variability in a software product population, these approaches, by composing independent software product lines, are limited to the composition, and by extension to reuse, of coarse-grained assets.In this PhD thesis, we propose a new approach named COMpOSER (CrOss-platform MOdel-driven Software product line EngineeRing) which defines an efficient way to compose MDA and SPLE in order to fully manages variability in a software product family but also in a software product population without reducing its reuse capabilities. To do so, COMpOSER introduces a new characterization of variability to organize reusable assets in three dimensions: the business dimension; the architecture dimension; and the technological ecosystem dimension. Additionally, this characterization distinguishes inter-domain variability, organizing the different software product families of a population, and intra-domain variability, organizing assets in a single software product family. To properly organize reusable assets, COMpOSER defines a model of fine-grained core assets which is compatible with its characterization of variability. In parallel, our approach defines partially automated operations to produce new software through systematic reuse which permit to fully manage variability without inducing scaling up issues with the addition of new variation points. Thanks to our collaboration with an industrial partner, we could experiment COMpOSER by applying our propositions to help the company industrializing its development processes. As such, we implemented a framework that supports our approach while considering the specificities of our industrial context. This framework embeds the principles of COMpOSER in a format that is easier to understand to developers with little knowledge about SPLE and MDA. In this way, we have observed that the framework facilitated the adoption of our solutions by the company's development teams. Using the COMpOSER framework, we obtained results demonstrating how our approach improves systematic software reuse when compared to concurrent approaches. These results stemmed from empirical experiments performed on concrete industrial case studies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bouarar, Selma. „Vers une conception logique et physique des bases de données avancées dirigée par la variabilité“. Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0024/document.

Der volle Inhalt der Quelle
Annotation:
Le processus de conception des BD ne cesse d'augmenter en complexité et d'exiger plus de temps et de ressources afin de contenir la diversité des applications BD. Rappelons qu’il se base essentiellement sur le talent et les connaissances des concepteurs. Ces bases s'avèrent de plus en plus insuffisantes face à la croissante diversité de choix de conception, en soulevant le problème de la fiabilité et de l'exhaustivité de cette connaissance. Ce problème est bien connu sous le nom de la gestion de la variabilité en génie logiciel. S’il existe quelques travaux de gestion de variabilité portant sur les phases physique et conceptuelle, peu se sont intéressés à la phase logique. De plus, ces travaux abordent les phases de conception de manière séparée, ignorant ainsi les différentes interdépendances.Dans cette thèse, nous présentons d'abord la démarche à suivre afin d'adopter la technique des lignes de produits et ce sur l'ensemble du processus de conception afin de (i) considérer les interdépendances entre les phases, (ii) offrir une vision globale au concepteur, et (iii) augmenter l'automatisation. Vu l'étendue de la question, nous procédons par étapes dans la réalisation de cette vision, en consacrant cette thèse à l'étude d'un cas choisi de façon à montrer : (i) l'importance de la variabilité de la conception logique, (ii) comment la gérer en offrant aux concepteurs l'exhaustivité des choix, et la fiabilité de la sélection, (iii) son impact sur la conception physique (gestion multiphase),(iv) l'évaluation de la conception logique, et de l'impact de la variabilité logique sur la conception physique (sélection des vues matérialisées) en termes des besoins non fonctionnel(s) :temps d'exécution, consommation d'énergie voire l'espace de stockage
The evolution of computer technology has strongly impacted the database design process which is henceforth requiring more time and resources to encompass the diversity of DB applications.Note that designers rely on their talent and knowledge, which have proven insufficient to face the increasing diversity of design choices, raising the problem of the reliability and completeness of this knowledge. This problem is well known as variability management in software engineering. While there exist some works on managing variability of physical and conceptual phases, very few have focused on logical design. Moreover, these works focus on design phases separately, thus ignore the different interdependencies. In this thesis, we first present a methodology to manage the variability of the whole DB design process using the technique of software product lines, so that (i)interdependencies between design phases can be considered, (ii) a holistic vision is provided to the designer and (iii) process automation is increased. Given the scope of the study, we proceed step-bystepin implementing this vision, by studying a case that shows: (i) the importance of logical design variability (iii) its impact on physical design (multi-phase management), (iv) the evaluation of logical design, and the impact of logical variability on the physical design (materialized view selection) in terms of non-functional requirements: execution time, energy consumption and storage space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Mer, Stéphane. „Les mondes et les outils de la conception : pour une approche socio-technique de la conception du produit“. Grenoble INPG, 1998. http://www.theses.fr/1998INPG0146.

Der volle Inhalt der Quelle
Annotation:
Notre travail se propose de participer a la caracterisation des outils d'aide a la conception integree de systemes mecaniques, a partir d'analyses de l'activite des concepteurs industriels. Pour la modeliser, nous avons construit trois concepts issus de la sociologie industrielle. Le concept de monde permet de prendre en compte l'heterogeneite des acteurs de la conception. Il identifie les groupes d'entites (humains, outils, objets) qui developpent une meme logique d'action, relevent d'une meme echelle de grandeur et partagent des connaissances collectives. Le concept de dispositif d'epreuve rend compte de l'activite d'evaluation de produit en cours de conception. Il est articule un mode de representation du produit, une echelle de grandeur et un appareillage. Pour que l'evaluation soit efficiente et riche, ces trois elements doivent appartenir a un meme monde. Enfin, le concept de traduction nous permet d'analyser les relations entre les differents modeles du produit qui coexistent ou se succedent durant la conception. Il souligne les transformations inevitables qui se produisent lors du passage d'un modele a l'autre. Plus, la notion de traduction-complementation souligne que certains processus de traduction s'accompagnent d'un enrichissement de la definition du produit simultanement au passage d'une representation a l'autre. Ces trois concepts nous permettent d'esquisser une architecture methodologique de la conception integree s'appuyant sur la cooperation entre des acteurs de mondes differents et sur des outils d'assistance. Nous proposons ensuite une grille d'analyse des outils dont nous tirons une typologie d'outils d'aide a la conception integree. Enfin, nous terminons en interrogeant un outil d'aide a la conception integree en cours de definition. Nous soulignons ainsi les apports de notre demarche de recherche dont la particularite est de passer par l'analyse des pratiques reelles en milieu industriel pour participer au developpement de nouveaux outils.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Ferreira, Leite Alessandro. „A user-centered and autonomic multi-cloud architecture for high performance computing applications“. Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112355/document.

Der volle Inhalt der Quelle
Annotation:
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud
Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Dudret, Stéphane. „Modèles de convection-diffusion pour les colonnes de distillation : application à l'estimation et au contrôle des procédés de séparation cryogéniques des gaz de l'air“. Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00874677.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la modélisation, pour le contrôle, des profils de compositions dans les colonnes de distillation cryogénique. Nous obtenons un modèle non-linéaire de convection-diffusion par réduction d'un modèle d'équations-bilans singulièrement perturbé. Du point de vue de l'automatique, nous nous intéressons à la stabilité des profils de compositions résultants, ainsi qu'à leur observabilité. Du point de vue du procédé, la nouvauté de notre modèle réside dans la prise en compte d'une efficacité de garnissage dépendant des conditions d'opération de la colonne. Le modèle est validé par des comparaisons avec des données de fonctionnement dynamique issues d'une unité de séparation réelle, pour la séparation d'un mélange binaire. Sur le cas plus complexe d'une cascade de colonnes séparant un mélange ternaire, le modèle montre une grande sensibilité aux erreurs d'estimation des taux de reflux. Des résultats adaptés du champ de la chromatographie nous permettent de relier cette sensibilité à des erreurs d'estimation des vitesses d'ondes de compositions cohérentes. En parallèle, nous proposons et testons également un modèle de fonctions de transfert simple (fondé sur des gains statiques et des retards purs uniquement) pour les petites dynamiques de compositions, qui dépend explicitement de valeurs mesurables ou observables sur le procédé
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Harani, Yasmina. „Une approche multi-modèles pour la capitalisation des connaissances dans le domaine de la conception“. Grenoble INPG, 1997. http://www.theses.fr/1997INPG0178.

Der volle Inhalt der Quelle
Annotation:
Ce travail de these propose un outil d'aide a la conception dont le principal objectif est la capitalisation de la connaissance intervenant lors de la conception d'un produit a des fins de reutilisation. Nous nous sommes interesses, principalement mais pas exclusivement, a des cas de conceptions routinieres et a des cas de re-conceptions. Ainsi, les processus de conception sont consideres comme structures. Notre approche s'applique a la conception de produits de types differents (un mecanisme, un moteur electrique, un logiciel, etc. ). Nous avons mis en place une structure de donnees organisee en un modele de produit et un modele de processus de conception. Le modele de produit prend en charge la modelisation des parametres et des descriptions du produit a concevoir et structure l'ensemble des caracteristiques en points de vue (pour capitaliser la specification du produit), alors que le modele de processus de conception prend en charge la modelisation de la demarche et donc des differentes etapes de conception du produit selon les langages de workflow (pour capitaliser le savoir-faire des concepteurs). Nous avons construit ces deux modeles a partir d'un ensemble de concepts de base independants de tout domaine d'application : les modeles sont alors dits generiques. Pour ce faire, nous avons defini trois niveaux de modelisation : le niveau meta, le niveau specification et le niveau realisation. Afin d'illustrer notre propos, un prototype logiciel, qui traite de la mise en place de l'activite de conception dans le domaine du genie electrique et plus particulierement de la conception d'un moteur electrique asynchrone, a ete developpe. Le prototype est implemente sur pc a partir du langage de programmation oriente-objet smalltalk avec l'utilisation de son environnement visualworks 2. 5 pour le developpement de l'interface utilisateur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

He, Junkai. „Effective models and methods for stochastic disassembly line problems“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASE009.

Der volle Inhalt der Quelle
Annotation:
L'étude du désassemblage des produits en fin de vie (EOL) sous incertitude est un sujet de recherche important en raison de ses avantages en termes de réduction de déchets, d'économie de ressources non-renouvelables et de protection de l'environnement. Les travaux existants sur les lignes de désassemblage supposent que l'information incertaine peut être estimée par des lois de probabilité ou par des fonctions et se focalisent seulement sur des problèmes stochastiques d'équilibrage de ces lignes. Cependant, il n'est pas toujours possible d'obtenir l'information incertaine complète dû à un manque de données historiques ou d'un volume excessif de données. De plus, le problème intégré des lignes de désassemblage a rarement été abordé. Dans cette thèse, quatre nouveaux problèmes stochastiques des lignes de désassemblage avec seulement à disposition l'information incertaine partielle sont investigués. L'objectif est de proposer des modèles et des méthodes efficaces pour ces problèmes. Les principaux travaux apportés par cette thèse sont les suivants :Premièrement, un nouveau problème stochastique d'équilibrage des lignes de désassemblage (SDLBP) est étudié dans le but de minimiser le coût des lignes avec les durées incertaines d'exécution des tâches, en ne tenant compte que de la moyenne, de l'écart-type et de la borne supérieure du taux de changement. Un modèle avec chance-contrainte est d'abord établi, qui est par la suite transformé approximativement en un modèle distribution-free basé sur l'analyse des propriétés. Ensuite, une heuristique est développée pour résoudre le modèle transformé. Des résultats expérimentaux montrent que le modèle distribution-free peut résoudre efficacement ce SDLBP avec de l'information incertaine partielle.Dans la plupart des travaux existants, le temps de cycle qui représente le temps d'achèvement maximal des postes de travail est prédéterminé. Cependant, le coût des lignes de désassemblage et le temps de cycle sont deux critères de performance contradictoires et s'impactent mutuellement. Un nouveau SDLBP bi-objectif est investi pour minimiser le coût des lignes et le temps de cycle, où seule l'information partielle des durées des tâches est requise. Un modèle bi-objectif distribution-free est construit et une méthode ε-contrainte améliorée est conçue. Des expériences montrent que la méthode ε-contrainte proposée peut réduire de plus de 90% le nombre d'itérations par rapport à la méthode ε-contrainte classique.Ces lignes pourraient générer des pollutions pendant le processus de désassemblage des produits EOL, néanmoins ce facteur n'a pas été considéré dans les précédents travaux. Nous nous intéressons à un nouveau SDLBP vert afin de minimiser le coût des lignes et la pollution, dans lequel des postes de travail avec des prix d'achat différents peuvent générer des quantités différentes de pollution. Un nouveau modèle bi-objectif est formulé et une méthode ε-contrainte spécifique au problème est proposée. Des résultats expérimentaux révèlent qu'un choix approprié des postes de travail peut effectivement réduire la pollution d'une ligne de désassemblage.L'optimisation intégrée d'équilibrage et de planification des lignes de désassemblage, qui n'a pas été étudiée auparavant, pourrait améliorer l'efficacité du système de désassemblage et réduire ses dépenses. Un problème stochastique intégré d'équilibrage et de planification des lignes de désassemblage (ISDLBPP) est adressé pour minimiser le coût global du système, où les ratios d'obtention des composantes et leur demande sont supposés être incertains. Une programmation stochastique à deux étapes est construite et des inégalités valides sont proposées pour réduire l'espace de recherche. Puis, des méthodes sample average approximation (SAA) et L-shaped sont proposées pour ce problème. Des expériences montrent que le temps de calcul moyen de la méthode L-shaped est seulement de 60% de celui de la méthode SAA, avec une qualité de solution comparable
Studying the disassembly of End-of-Life (EOL) products under uncertainty is becoming a hot research topic due to its benefits in reducing waste, saving non-renewable resources, and protecting the environment. Existing disassembly line works assume that stochastic information can be estimated as probability distributions or functions and most of them focus on stochastic disassembly line balancing problems. However, it is not always possible to obtain complete stochastic information due to a lack of historical data or excessive data volume, and the integrated disassembly line problem has been rarely addressed. In this thesis, four novel stochastic disassembly line problems with only partial stochastic information are investigated. The purpose is to propose effective models and solution methods for the considered problems. The main works of this thesis are:Firstly, a new stochastic disassembly line balancing problem (SDLBP) is studied to minimize the disassembly line cost under stochastic task processing times, given only the mean, standard deviation, and change-rate upper bound. For the problem, a chance-constrained model is first formulated, which is further approximately transformed into a distribution-free model by property analysis. Then, a fast heuristic is devised to solve the transformed model. Experimental results demonstrate that the distribution-free model can effectively solve the SDLBP with only partial stochastic information.In most existing literature, the cycle time that represents the maximum completion time among workstations is given. However, the disassembly line cost and cycle time are two conflicting performance criteria and impact mutually. In this thesis, a new bi-objective distribution-free SDLBP is studied to minimize the disassembly line cost and cycle time, where partial information of task processing times is required. For the problem, a bi-objective distribution-free model is constructed, and an improved ε-constraint method is designed. Numerical experiments show that the proposed method can reduce more than 90% computation rounds, compared with the basic ε-constraint method.Disassembly lines may generate pollution during separating EOL products, but this factor has not been considered in the previous SDLBP works. In this thesis, we study a new green-oriented distribution-free SDLBP to minimize the disassembly line cost and pollution emission simultaneously, in which workstations with different purchase prices can have different amounts of pollution emissions. For the problem, a new bi-objective model is formulated and a problem-specific ε-constraint method is devised. Experimental results show that selecting appropriately workstations can effectively reduce the pollution emission of a disassembly line. Besides, some managerial insights are discussed.The integrated optimization of disassembly line balancing and planning may enhance the efficiency of the disassembly system and reduce its expenses, which has not been studied before. In this thesis, an integrated stochastic disassembly line balancing and planning problem (ISDLBPP) is addressed to minimize the overall system cost, where component demands and component yield ratios are assumed to be uncertain. For the problem, a two-stage stochastic programming model is established and valid inequalities are devised to reduce the search space. Then, the sample average approximation (SAA) method and the L-shaped method are applied to solve the model. Numerical experiments show that the L-shaped method can save more than 60% computation time than the SAA method, without sacrificing solution quality
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie