To see the other types of publications on this topic, follow the link: Génération de logiciel.

Dissertations / Theses on the topic 'Génération de logiciel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Génération de logiciel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Villeneuve, D. "Logiciel de génération de colonnes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ53547.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Chevalley, Philippe. "Approche statistique pour le test de logiciels critiques orientés-objet : expérimentation sur un logiciel avionique." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2001. http://www.theses.fr/2001ESAE0018.

Full text
Abstract:
Les travaux présentés dans ce mémoire ont pour objectif de définir une stratégie appropriée pour le test de logiciels critiques orientés-objet. La stratégie de test que nous préconisons s'appuie sur la complémentarité de données de test statistique et déterministe. Les entrées de test statistiques sont générées automatiquement à partir de l'information présente dans les diagrammes d'état UML; en complément, les entrées de test déterministes ciblent des points singuliers du domaine d'entrée. Cette stratégie mixte s'intègre dans un environnement commercial de modélisation (Rose RealTime) permettant ainsi la génération automatique à la fois des entrées de test statistiques et des sorties attendues. Le pouvoir d'efficacité de cette stratégie mixte est évalué par une technique d'injection de fautes logicielles, analyse de mutation. Dans ce cadre, un outil d'analyse de mutation pour programmes Java a été développé sur les bases d'une idée originale, associant analyse syntaxique et réflexivité pour l'injection de différents types de fautes (traditionnelles et orientées-objet). Ces travaux théoriques sont illustrés sur une étude de cas industrielle du domaine avionique. Les résultats expérimentaux confirment la pertinence de l'approche élaborée et montrent son efficacité prometteuse vis-à-vis de la recherche de fautes. Ces mesures d'efficacité sont complétées par une étude comparative de l'approche proposée avec une approche déterministe utilisée expérimentalement chez Rockwell-Collins.
APA, Harvard, Vancouver, ISO, and other styles
3

Bertault, François. "Génération et tracé de structures décomposables." Nancy 1, 1997. http://www.theses.fr/1997NAN10297.

Full text
Abstract:
L'objet de cette thèse est la réalisation d'algorithmes et d'outils d'aide à l'étude des propriétés de structures combinatoires particulières, les structures décomposables. Nous nous intéressons pour cela à la génération aléatoire et systématique de structures décomposables, puis à leur représentation graphique automatique. Ce travail se situe à la frontière entre calcul mathématique et visualisation. Les structures décomposables sont les structures combinatoires qu'il est possible de former récursivement en utilisant des constructeurs aux propriétés particulières. Le point de vue est similaire à celui adopté dans la théorie des espèces de structures, où l'on privilégie la description d'ensembles de structures à partir de transformations d'ensembles existants. Il est alors possible, grâce à des spécifications, de décrire une infinité d'ensembles de structures combinatoires parmi lesquels les permutations, les graphes fonctionnels, les arbres enracinés ou encore les hiérarchies. L'intérêt de cette démarche tient au fait que l'on sait résoudre des problèmes de dénombrement et de comportement asymptotique sur ces ensembles et générer aléatoirement de façon uniforme des structures de ces ensembles. Les applications concernent le calcul de complexité en moyenne d'algorithmes, et la génération de jeux de tests pour la validation expérimentale ou l'étalonnage d'algorithmes. Nous présentons dans cette thèse deux types de résultats. Les premiers concernent la génération de structures décomposables, les seconds leur représentation graphique. Nous présentons une implantation d'un algorithme classique de génération aléatoire de structures décomposables, et nous proposons des techniques permettant de générer tous les éléments d'un ensemble à partir de sa spécification. Nous proposons également un algorithme de tracé de graphes particuliers, pour lesquels il existe à la fois des relations d'adjacence et d'inclusion entre les noeuds. Ces graphes, que nous appelons les graphes composés, sont en effet bien adaptés à la représentation de la nature générique des structures décomposables. Ce travail est concrétisé par la réalisation de deux logiciels de tracé de structures combinatoires. Leur utilisation n'est cependant pas limitée à ce seule domaine et les aspsects liés à leur application à la visualisation de graphes en général sont abordés
The main goal of the thesis is to conceive algorithms and tools to assist people who study a special kind of combinatorial structures, namely decomposable structures. The two major questions we try to solve are: How to generate, randomly or by some systematic procedure, a decomposable structure; How to draw decomposable structures. Decornposable structures are combinatorial structures that are recursively described using a small set of constructors. The idea consists in considering a structure as a process of construction from simpler structures. The main interest of the decomposable structure theory is that we can describe an infinite number of different sets of structures, including permutations, varions kind of trees or functional graphs, for which we can solve counting and random generation problems. Possible applications are the average case analysis of algorithms and the production of test inputs for the experimental validation of programs. We propose an algorithm for drawing decomposable structures based on the translation into special graphs, that we call composed graphs, in which bath inclusion and adjacency relationships can exist. The principle is based on the translation of decomposable structures into composed graphs, i. E. Graphs with both inclusion and adjacency relationships. The drawing of composed graph is achieved by using different classical graph drawing algorithm together. The number of algorithms that can be used on a sarne drawing is infinite. The only restriction is that the algorithms must be able to draw graphs with arbitrary node sizes. We present two graph drawing software realisations that we wrote in order to validate the algorithms presented in the thesis. They can be linked to combinatorial structure generation programs in order to form integrated systems. We also investigate their use for the visualisation of large data structures
APA, Harvard, Vancouver, ISO, and other styles
4

Nebut, Clémentine. "Génération automatique de tests à partir des exigences et application aux lignes de produits logicielles." Rennes 1, 2004. http://www.theses.fr/2004REN10099.

Full text
Abstract:
La contribution de cette thèse est une approche de génération automatique de tests fonctionnels à partir des exigences, prenant en compte la maîtrise du coût de test, l'adaptabilité au contexte des lignes de produits, la compatibilité avec les pratiques industrielles et la complexité des logiciels réels. Notre approche se base sur un modèle de cas d'utilisation étendus, relié à un analyseur de langage naturel contrôlé en amont et un générateur de tests en aval. Le langage contrôlé rapproche la méthode des pratiques industrielles, et formalise assez les exigences pour les transformer en un modèle de cas d'utilisation simulables (via l'ajout de contrats interprétables). Des critères de test permettent alors de générer des objectifs de test de haut niveau, qui sont ensuite raffinés vers des cas de test en utilisant des scénarios. La variabilité dans les exigences est prise en compte à chaque niveau de la génération de tests, cette approche est donc adaptée aux lignes de produits.
APA, Harvard, Vancouver, ISO, and other styles
5

Le, Guennec Alain. "Génie logiciel et méthodes formelles avec UML : : spécification, validation et génération de tests." Rennes 1, 2001. http://www.theses.fr/2001REN10156.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ribereau, Dominique. "Génération d'un logiciel de simulation de la combustion d'un bloc de propergol solide." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10594.

Full text
Abstract:
Etablissement d'un code d'application industrielle qui simule en 3d la combustion de chargements de propergol solide. La modelisation de la regression de surface, a vitesse constante ou variable, est realisee grace a un systeme hyperbolique qui utilise les normales au front de flamme. Utilisation de la conception assistee par ordinateur pour construire et visualiser un maillage surfacique tridimensionnel, sur lequel s'appuie la resolution numerique. Etude d'un autre modele pour simuler la combustion de blocs a fils
APA, Harvard, Vancouver, ISO, and other styles
7

Belhaouari, Hakim. "Une approche intégrée pour la conception par contrat : vérification statique / dynamique et génération automatique de test." Paris 6, 2010. http://www.theses.fr/2010PA066116.

Full text
Abstract:
Les méthodes formelles légères facilitent l'introduction des outils formels en autorisant une spécification partielle du logiciel. En l'occurrence la granularité des vérifications dépend de la quantité d'information spécifiée. La fusion de ces méthodes semi-formelles (en particulier de la conception par contrat) et du test logiciel conduit à la notion de test basé sur les modèles (MBT). Ainsi, la découverte d'un oracle et la production des données de test peut être automatisée. Dans la génération automatique de tests, il est important de considérer le critère de qualité des tests produits. Cette qualité dépend des différents modes de productions. Le mode offrant la meilleur qualité consiste à analyser finement la spécification à l'aide de techniques de satisfaction de contraintes. Afin d'améliorer la qualité du logiciel, nous proposons dans cette thèse une méthodologie complète reposant sur la conception par contrat et différentes vérifications (dynamique et statique). En particulier, la génération automatique de tests dont l'enjeu est de produire de véritables scénarios de test qui suivent le plus précisément possible les spécifications ainsi qu'une stratégie de test clairement définie. La mise en œuvre des outils repose en grande partie sur un moteur de résolution de contrainte offrant une architecture ouverte. Ainsi l'utilisateur peut intégrer des types complexes qui ne sont pas supportés initialement grâce à la notion de constructeur de type. Nous présentons notamment le support pour deux types complexes: les tableaux bornés et les chaînes de caractères.
APA, Harvard, Vancouver, ISO, and other styles
8

Maïga, Cheick Ismaël. "Génération de squelettes des contrats de classes et des tests unitaires en Java." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9473.

Full text
Abstract:
Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
9

Jouve, Wilfried. "Approche déclarative pour la génération de canevas logiciels dédiés à l'informatique ubiquitaire." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00402605.

Full text
Abstract:
Les applications ubiquitaires évoluent dans des environnements plus hétérogènes et plus dynamiques que ceux des systèmes distribués traditionnels. La criticité des domaines applicatifs impliqués et la vocation non intrusive de l'informatique ubiquitaire exigent de garantir la robustesse des applications avant et pendant leur déploiement en situation réelle. Les solutions proposant de gérer la dynamicité des environnements ubiquitaires offrent des canevas de programmation dont la généricité ne permet pas de garantir la fiabilité des applications développées. D'autres solutions permettent davantage de vérifications en assurant, par exemple, l'intégrité des communications. Cependant, ces vérifications, telles que proposées dans ces solutions, empêchent la prise en compte de la dynamicité, indispensable à la mise en oeuvre d'applications ubiquitaires. Dans cette thèse, nous proposons un canevas logiciel visant à concevoir, développer, vérifier et tester les applications ubiquitaires avant leur déploiement en environnements réels. Notre approche repose sur des spécifications haut niveau des applications cibles. Chaque spécification, écrites dans le langage DIASPEC, est analysée, vérifiée et compilée par le compilateur DIASPEC qui génère un canevas logiciel dédié, incluant un canevas de programmation et un canevas de simulation. Les canevas de programmation générés fournissent du support pour la programmation d'applications ubiquitaires. Ils garantissent l'intégrité des communications tout en permettant la gestion de la dynamicité des environnements ubiquitaires. Les canevas de simulation générés fournissent du support pour le test des applications ainsi développées. Les contributions de cette thèse sont les suivantes :
– Nous proposons l'approche DIAGEN qui permet, à partir de spécifications d'architectures logicielles ubiquitaires, de générer du support de programmation et un ensemble de vérifications dédiés au développement d'applications ubiquitaires. Ces spécifications reposent sur un langage déclaratif, appelé DIASPEC, qui permet de décrire les types de services composant les applications ubiquitaires cibles. Le compilateur DIASPEC vérifie la cohérence des spécifications et génère, à partir de celles-ci, des canevas de programmation dédiés. Les canevas de programmation générés garantissent l'intégrité des communications d'applications dynamiques.
– Nous avons développé DIASIM, un simulateur pour tester à l'exécution, le comportement des applications développées avec l'approche DIAGEN. DIASIM permet de tester les applications sans les modifier et d'intégrer incrémentalement des services réels dans les scénarios de simulation.
– Nous avons montré que l'approche DIAGEN permet davantage de vérifications statiques tout en gérant la dynamicité des environnements ubiquitaires et en permettant une plus grande concision des applications développées. Nous avons analysé les canevas de programmation générés pour la gestion de réunion, l'immotique et la téléphonie.
APA, Harvard, Vancouver, ISO, and other styles
10

Atat, Youssef. "Conception de haut niveau des MPSoCs à partir d'une spécification Simulink : passerelle entre la conception au niveau système et la génération d'architecture." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0047.

Full text
Abstract:
La technologie de fabrication actuelle permet l’intégration d’un système multiprocesseur complexe sur une seule pièce de silicium (MPSoC pour Multiprocessor System-on-Chip). Une façon de maîtriser la complexité croissante de ces systèmes est d’augmenter le niveau d’abstraction et d’aborder la conception au niveau système. Cependant, l’augmentation du niveau d’abstraction peut engendrer un fossé entre les concepts au niveau système et ceux utilisés pour l’implémentation de l’architecture Matériel/Logiciel du MPSoC. L’objectif de cette thèse est de combler le gap entre les deux niveaux d’abstractions utilisés en proposant une passerelle efficace entre les outils d’aide au développement d’algorithmes (Matlab\Simulink) et les outils de conception des architectures (ROSES et macro-Cell builder). Ceci est accompli : - En définissant un modèle intermédiaire transactionnel dans l’environnement Simulink. Ce modèle intermédiaire combine l’algorithme et l’architecture. Il permet la définition précoce de la plateforme d’implémentation et établit une continuité entre le modèle fonctionnel et le modèle architectural. - En automatisant le passage entre le niveau système et le niveau architectural, dans le but d’accélérer la procédure de la conception des MPSoCs et de réduire la quantité des erreurs provoquées par le travail manuel dans un environnement unifié. La pertinence de ce travail a été évaluée par son application à la conception du décodeur MP3 présenté dans ce mémoire
The current fabrication technology allows the integration of a complex multiprocessor system on one silicon part (MPSoC for Multiprocessor System-one-Chip). A way to control the increasing complexity of these systems is to increase the abstraction level and to adopt the system level design. However, the increase of the abstraction level can make a huge gap between the system level concepts and those used for the hardware/software architecture implementation of MPSoC. The objective of this thesis is to fill the gap between the two abstractions levels by proposing an efficient bridge between the algorithms development aid tools (Matlab\Simulink) and the architectures design tools (ROSES and macro-Cell builder). This is accomplished: - By defining a transactional model in the Simulink environment. This intermediate model combines algorithm and architecture. It allows the early definition of the implementation platform and establishes continuity between the functional model and the architectural model. - By automating the passage between the system level and the architectural level, to accelerate the MPSoCs design procedure and to reduce the errors quantity caused by manual design in a unified environment. The relevance of this work was evaluated by its application to the MP3 decoder design presented in this memory
APA, Harvard, Vancouver, ISO, and other styles
11

Fiandino, Maxime. "Exploration d'architectures basée sur la génération automatique de plates-formes matérielles et le portage rapide du logiciel." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0053.

Full text
Abstract:
L’approche proposée se déroule selon un flot itératif en trois étapes. L’une concerne la modification et le développement rapide du modèle exécutable de l’architecture. Une autre vise le portage rapide des logiciels. La troisième est l’exploration d’architecture logicielle et matérielle. Un outil a été développé pour créer et modifier rapidement un HMPSoC à partir de sous-systèmes de traitement paramétrables. Une méthode permet d’adapter le logiciel sur une architecture, elle inclut: paramétrer manuellement le logiciel applicatif, l’extraction automatique des caractéristiques de l’architecture, la génération des sources de bas niveau. Enfin une méthode permet d’effectuer des simulations multi-niveaux des processeurs. Les simulations de haut niveau servent pour exécuter rapidement les logiciels embarqués, les simulations précises en mode bas niveau (ISS) pour mesurer les performances. Suivant les résultats, l’architecture et les logiciels sont modifiés et le cycle peut reprendre
The proposed approach is an iterative flow in three steps. The first one is the fast development and modification of the architecture executable model. The second one is the adaptation of the embedded software. The third one is the hardware and software architecture exploration. A tool has been developed in order to create and modify quickly a hardware architecture model. It uses flexible sub-systems. One method in order to adapt the embedded software is exposed, it includes: to manually add some parameterization in the software, an automatic extraction of the architecture characteristics, the generation of the low level code sources. To finish a method allow to simulate processors at different level of simulation with their embedded software, high level for fast simulation, low level for performance measurements. Following results, hardware and software are modified and the flow can restart. This flow was tested on a real application, a parallelized H264 encoder
APA, Harvard, Vancouver, ISO, and other styles
12

Megzari, Karim. "Refiner : environnement logiciel pour le raffinement d'architectures logicielles fondé sur une logique de réécriture." Chambéry, 2004. http://www.theses.fr/2004CHAMS039.

Full text
Abstract:
Nous sommes interessés dans cette thèse aux problèmes liés à l'insuffisance de support informatique pour le raffinement d'architectures logicielles. Le peu de langages de description d'architectures (ADL) comme SADL et Rapide qui abordent ces problèmes le font de manière très restreinte. Notre contribution consiste en la fourniture d'un environnement logiciel que nous avons nommé Refiner, fondé sur la logique de réécriture. Le choix de cette dernière est motivé par le fait qu'elle soit bien adapté à la description de systèmes concurrents, leur raffinement par le mécnisme de réécriture et également par le fait qu'elle soit bien supportée par desoutils logiciels. Nous avons construit Refiner autour du langage de raffinement d'architectures ArchWare ARL de manière à ce qu'il permette à ses utilisateurs : - de raffiner progressivement des éléments architecturaux (composants, connecteurs, ports, etc. ) depuis des descriptions abstraites vers des descriptions concrètes, et ce à travers des niveaux d'abstraction multiples. A chaque étape de raffinement, peut être appliquée une action qui fournit par construction, sous certaines obligations de preuves, une transformation architecturale correcte. - de raffiner plus que la structure et le comortement d'un élément architectural. - de construire au cours d'une étape de raffinement, aussi bien une description architecturale plus concrète traduisant une architecture possible qu'une description simplifiée traduisant une architecture réduite. - de supporter, au niveau le plus concret du raffinement architectural, la génération des applications dans des langages de programmation cibles. Ceci se fait par le biais du générateur d'applications Sigma fondé sur les concepts de mapping et de patterns de synthèse. L'environnement Refiner proposé permet aux architectes de raffiner correctement des éléments architecturaux, puis de recomposer les éléments raffinés pour la construction d'architectures concrètes
In this thesis, we werre interested in the problems involved in the insufficiency of the software support for refinement of software architectures. Indeed, the titles of architecture description languages (ADL) like SADL and Rapide which tackle these problems make it in a very restricted way, although they support multiple levels of abstraction. Our contribution consists of the supply of the software environment which we named refiner based on the rewriting logics. The choice of the latter is justified by the fact that it is well adapted to the description of concurrent systems, thier refinement by the mechanism of rewriting and also by the fact that it is well supported by software tools. We built it around the architecture refinement language ArchWare ARL. The Refiner allows its users : - to refine architectural elements gradually (component, connectors, ports, etc. ) since abstract descriptions towards concrete descriptions, and this through multiple levels of abstraction. With each step of refinement, an action can be applied which provides by construction, under certain obligations of proofs, a correct architectural tranformation. - to refine more than the structure and the behavior of an architectural element. - to built during a step of refinement, as well a more concrete architectural description translating a possible architecture than a simplified description tranlating a reduced architecture. - to support, at the most concrete level of architectural refinement, the generation of the applications in programming languages target. This is done by the means of the Sigma generator of applications based on the concepts of mapping and patterns of synthesis. Consequently, the Refiner supprot proposed allows to the architects to refine correctly architectural elements, then to recompose the refined elements for the construction of concrete architectures
APA, Harvard, Vancouver, ISO, and other styles
13

Du, Bousquet Lydie. "Contributions à l'automatisation raisonnée de différents processus du test logiciel." Habilitation à diriger des recherches, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-01005528.

Full text
Abstract:
Le test constitue aujourd'hui la principale activité de validation d'un logiciel. Dans un contexte où l'on cherche à réduire les coûts et augmenter la qualité, il est essentiel de proposer des solutions de test automatisées et de veiller à la productivité des ingénieurs de test. Les travaux présentés dans ce mémoire ont l'ambition de contribuer à ces objectifs. Ces travaux se déclinent selon trois axes. Le premier axe concerne la génération de tests. L'originalité du travail se situe dans l'établissement de principes pour la production combinatoire de suites de test, à partir d'expressions abstraites. Ces principes ont été implantés dans un outil appelé Tobias. Lorsque de grandes suites de test sont produites, il est important d'automatiser l'oracle des tests. Un deuxième axe vise à évaluer l'utililisabilité des assertions pour établir le verdict des tests pour des applications domotiques. Les résultats montrent que les assertions sont effectivement utilisables, mais que l'exécution de ces applications dans un environnement réel non complètement contrôlable ou observable peut conduire en l'émission de verdicts biaisés. Ainsi, l'automatisation de la génération et de l'oracle permet de réduire le coût de la phase de test. Mais, pour réduire le coût du test, il est aussi important de considérer les facteurs internes au logiciel relatifs à la testabilité. De nombreuses métriques ont été proposées pour prédire et estimer la testabilité d'un système. Un troisième axe de recherche concerne l'évaluation la validation expérimentale de ces métriques. Les résultats des expérimentations démontrent que les métriques étudiées ne sont pas directement utilisables pour prédire le coût du test.
APA, Harvard, Vancouver, ISO, and other styles
14

Warth, Valérie. "Conception et développement d'un logiciel de génération de mécanismes réactionnels d'oxydation et de combustion de substances organiques." Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL087N.

Full text
Abstract:
Cette thèse concerne la mise au point d'un logiciel de génération de mécanismes de combustion et d'oxydation de substances organiques (alcanes, cyclanes, éthers) contenues dans les essences et les gazoles. Un des principaux objectifs de ce travail est la prédiction des émissions de polluants par les moteurs à combustion interne. Le logiciel comporte les éléments suivants :une base de données de réactions de petites espèces (Co-C2), un générateur de mécanismes primaires exhaustifs, un générateur de mécanismes secondaires globalisés et enfin, deux générateurs de données, l'un thermochimiques et l'autre cinétiques. Sont générés des modèles de réactions compatibles avec le logiciel CHEMKIN II des laboratoires SANDIA (USA) de simulation de réactions en réacteurs de laboratoires. Les mécanismes générés par notre logiciel peuvent être validés de manière interactive grâce à CHEMKIN par confrontation avec des résultats expérimentaux. En outre, un logiciel de réduction de ces mécanismes détaillés a été également développé et validé. Une représentation externe non canonique des réactifs chimiques est transformée en une représentation interne canonique par un compilateur auquel sont associés deux algorithmes de canonicité. Les mécanismes réactionnels sont générés par application aux structures internes chimiques d'algorithmes implémentant les réactions chimiques élémentaires. La complétude et la non redondance des mécanismes produits sont assurées par canonicité des espèces d'une part, et par des règles de création/consommation des espèces radicalaires établies sous forme d'un algorithme itératif, d'autre part
This thesis deals with the development of a software for the generation of combustion and oxidation mechanisms of organic compounds (alkanes, cyclanes, and ethers) found in gasoline and diesel fuel. One of the main aims of this study is to predict the emission of pollutants by internai combustion engines. The software is made of the following items : a database of small species (Co-C2) reactions, a comprehensive primary mechanism generator, a lumped secondary mechanism generator and two data generators : a first one of thermodynamic data and a second one of kinetic data. Generated reaction models are compatible with CHEMKIN II package from SANDIA laboratories, USA, for the analysis of gas phase chemical kinetics. The generated mechanisms can be interactively validated thanks to CHEMKIN by comparison with experimental results. Moreover, another software has been developed and validated for reducing these detailed mechanisms. A non ~anonical external repre~entation of chemical reactants is transformed into a canonical internai representation through a compiler and two canoniêity algorithms. The mechanisms are generated by applying algorithrns implementing elementary chemical reactions to internai chemical structures. Completeness and non redundancy of the produced mechanims are ensured by, on the one hand, the canonicity of the species and, on the other hand, by creationlconsumption rules for radical species implemented via an iterative algorithm
APA, Harvard, Vancouver, ISO, and other styles
15

Krimm, Jean-Pierre. "Application des ordres partiels à la génération compositionnelle de systèmes asynchrones." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10243.

Full text
Abstract:
La verification formelle permet de garantir qu'un programme verifie un ensemble de proprietes. Pour ce faire, une methode attractive consiste a modeliser son comportement par un systeme de transition etiquetees (ste), puis a evaluer les proprietes sur ce ste par exploration exhaustive. L'interet de cette approche par model-checking est d'etre automatisable dans le cas fini, mais son inconvenient reste la taille du ste, souvent redhibitoire pour des programmes complexes. Pour palier a ce probleme, une solution possible est de considerer un ste reduit qui preserve les proprietes a verifier. Une approche naturelle consiste alors a proceder de maniere compositionelle : on genere independamment les ste associes a differentes parties du systeme global, on reduit ces ste modulo une relation appropriee, puis on compose les ste reduits ainsi obtenus. Cette technique a ete notamment mise en uvre avec succes sur des systemes de processus communiquants par rendez-vous. L'objectif de cette these est d'etendre ces resultats au cas plus difficile ou les communications ont lieu a travers des buffers asynchrones, ce qui correspond au modele d'execution de langages de specification comme sdl ou promela. Pour reduire la taille du ste obtenu lors d'une generation partielle, l'originalite de ce travail consiste alors a utiliser une notion de preordre sur les sequences d'execution du systeme : seules les sequences les plus executables conduisant a un ensemble d'etats caracteristiques de la propriete a verifier sont prises en compte. Deux types de proprietes sont notamment envisagees : l'absence de blocage et la preservation d'un langage observable. Cette approche est formellement justifiee, et un operateur de composition parallele permettant de calculer directement des ste reduits est propose. Cet operateur a ete implemente dans un outil de generation compositionnelle et sa mise en uvre sur des etudes de cas confirme largement l'interet de cette solution.
APA, Harvard, Vancouver, ISO, and other styles
16

Gotlieb, Arnaud. "Contributions à la génération de tests à base de contraintes." Habilitation à diriger des recherches, Université Européenne de Bretagne, 2011. http://tel.archives-ouvertes.fr/tel-00699260.

Full text
Abstract:
Ces dernières années, les recherches en matière de Test Logiciel ont conduit au développement de techniques de résolution de contraintes dédiées, dans ce qui est appelé ''le test à base de contraintes''. Notre approche dans ce domaine vise à explorer l'apport de la Programmation par Contraintes à la génération automatique de test pour les programmes impératifs. Nous nous sommes intéressés à la résolution de problèmes combinatoires difficiles issus de la génération de données de test, en développant des techniques de propagation de contraintes et de filtrage, adaptées au traitement des constructions des langages de programmation. Notre habilitation tente de faire une première synthèse de ce sujet au travers de cinq contributions: l'hybridation de techniques de résolution de contraintes pour la génération automatique de cas de test, la génération probabiliste de cas de test à l'aide d'opérateurs à contrainte probabiliste, les contraintes sur un modèle mémoire pour les programmes manipulant les pointeurs, la résolution de contraintes sur les expressions portant sur les nombres à virgule flottante, et le test de programmes à contraintes. Nous illustrons également ces contributions par leur application à la vérification de logiciels critiques, et dressons quelques perspectives à ces travaux.
APA, Harvard, Vancouver, ISO, and other styles
17

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau." Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Chaisemartin, Philippe. "Contribution à la génération automatique de plans de masse." Phd thesis, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00322531.

Full text
Abstract:
Cette thèse présente l'introduction de méthodes nouvelles dans le domaine de la conception assistée par ordinateur de circuits à haute intégration. A partir de la description d'un ensemble d'individus par la liste de leurs corrélations (ou distances) deux à deux, l'analyse factorielle de données se propose d'en fournir une représentation planaire. Le but de cette thèse est de décrire le cheminement parcouru pour pouvoir utiliser ces méthodes connues depuis longtemps des statisticiens, dans le domaine de la génération de plans de masse. Ainsi, plusieurs idées originales permettant l'utilisation d'algorithmes classiques d'analyse factorielle de données dans le cadre de la CAO de circuits sont présentées. Ces idées sont concrétisées par la réalisation et la présentation d'un logiciel de génération de plans de masse
APA, Harvard, Vancouver, ISO, and other styles
19

Kangoye, Sékou. "Elaboration d'une approche de vérification et de validation de logiciel embarqué automobile, basée sur la génération automatique de cas de test." Thesis, Angers, 2016. http://www.theses.fr/2016ANGE0017/document.

Full text
Abstract:
Un système embarqué est un système électronique et informatique autonome dédié à une tâche précise. Dans le secteur de l’automobile, le nombre de systèmes embarqués dans les voitures a considérablement augmenté au cours de ces dernières années et va certainement continuer à augmenter. Ces systèmes sont dédiés entre autres, à la sécurité, au confort de conduite,et à l’assistance à la conduite. Cette croissance des systèmes est associée avec une croissance en taille des logiciels qui les contrôlent. En conséquence, leur gestion(système et logiciel) devient de plus en plus complexe et problématique. Par ailleurs, la concurrence dans le secteur automobile est très féroce et les temps de mise sur le marché sont de plus en plus courts. Ainsi, pour garantir le bon fonctionnement des systèmes en général et du logiciel en particulier, étant donné leur complexité,et aussi les délais courts de mise sur le marché des produits automobiles, de nouvelles méthodes de développement doivent être considérées. Ainsi, de nombreuses méthodes de développement, incluant de nouveaux standards (de développement) et approches automatiques ont émergé au cours de ces dernières années. Dans le cas particulier de la vérification et validation de logiciel, une des activités critiques qui a connu une avancée significative est la génération de cas de test, avec l’avènement d’approches automatiques.Malgré cela, ces approches peinent souvent à s’imposer en milieu industriel. Une des raisons est que celles ci sont souvent peu adaptées ou peu utilisées dans un contexte industriel.Dans ce contexte, cette thèse vise à proposer une approche de vérification et de validation de logiciels embarqués, basée sur la génération automatique de cas de test. Pour cela, nous avons mis en place une approche permettant de représenter sous forme de modèles abstraits les spécifications d’un logiciel, puis de générer à partir de ces modèles un ensemble de cas de test en considérant en particulier le critère de couverture MC/DC
An embedded system is a system that performs a specific task and has a computer embedded inside. In the automotive sector, the amount of embedded systems in the vehicle has risen dramatically in recent years and is set to increase. They deal essentially with safety, comfort, and driving assistance. Furthermore, the increase in number and complexity of the systems is associated with a growth in software. As a consequence, their management (system and software) have become more and more complex and problematic. Also, the competition and time-to-market in the automotive industry are very tough. Thus, to guarantee the efficiency and reliability of the embedded systems in the vehicle in general and the software in particular, in view of the complexity as well as the competition and time-to-market law, new development methods should be considered. Therefore, new development methods including new standards, and automatic approaches have emerged over the last years. In the particular case of embedded software verification and validation, one of the most critical activities that has experienced a significant progress is test case generation with the advent of automatic approaches. Despite this, these approaches are not widely used or are not well adapted in industrial context. In that context, our goal in this PhD. thesis is to propose a new verification and validation approach, based on automatic test case generation of embedded embedded. Thus, we have set up an approach that automatically generates test cases, with respect to the MC/DC criterion, from abstract models of the software specifications expressed in the form of state-transition models
APA, Harvard, Vancouver, ISO, and other styles
20

Lbath, Ahmed. "A. I. G. L. E. : un environnement visuel pour la conception et la génération automatique d'applications géomatiques." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0048.

Full text
Abstract:
Les Systèmes d’Information possède des domaines d’application très variés et son souvent difficilement personnalisables pour un utilisateur final non expert. De plus les données gérées dans les SIG peuvent être de nature complexe (vecteur ou rasteur). Le modèles mental de l’utilisateur final n’est pas pris en compte ni dans les langages d’interrogation existants, ni dans les méthodes de conception rencontrées. Face à ces problèmes, les principaux SIG rencontrés offrent des environnements propriétaires et des solutions « clefs en main ». Aussi a-t-il été nécessaire de mettre en œuvre un atelier visuel, nommé AIGLE, dédié à la conception et la génération automatique d’applications géomatiques portables sur plusieurs SIG. La portabilité est garantie par la définition d’un langage intermédiaire qui à été implanté dans l’atelier. La prise en compte du modèle mental de l’utilisateur se concrétise par la définition d’un environnement visuel intégré, d’une part, une méthode de conception « visuelle » orientée objet, nommée OMEGA, base sur l’utilisation de métaphores visuelles et un modèle de validation avec l’utilisateur final dès les phases d’analyse et de conception et d’autre part, la définition d’un langage d’interrogation visuel encapsulant un langage d’interrogation intermédiaire. Afin de valider notre approche, un prototype a été réalisé et validé par la génération d’une application-exemple qui a été commercialisée et installée dans un site pilote
The Geographical Information Systems (GIS) applications domain is very large. Nowadays marketed GfS are closed regarding applications. Each geographical application needs specific development which is time consuming and which is dedicated to a specific GIS. Moreover, in GIS, manipulated spatial data could be complex (raster or vector). Mental model of the end-user is not considered in the method design aspect; it is not taken into account in the query language aspect. Regarding these problems no real solution exists and most of marketed GIS are still proprietary systems. Our aim is to develop a new visual CASE tool named AIGLE, capable of generating various applications on several GIS platforms. The problem of portability leads us to integrate an intermediate language into the CASE tool. This CASE tool supports, in one hand, a visual object oriented method named OMEGA, and, in the other hand, a visual query language. OMEGA is dedicated to the design and development of geographical end-user applications. This method uses a visual iconic metaphors for the representation of object classes and dynamic state diagrams. In the visual query language for GIS two important levels are defined: end-user level with iconic metaphors and technical level with graphical representation of class abject. The iconic metaphors could represent data or queries. For data, iconic metaphors should be defined in the design stage with OMEGA. The proposed visual language is translated into an intermediate query language before being generated into a specific target GIS. In order to validate our approach a prototype has been developed and an example of geographical application has been generated and marketed
APA, Harvard, Vancouver, ISO, and other styles
21

Gauthier, Lovic. "Génération de système d'exploitation pour le ciblage de logiciel multitâche sur des architectures multiprocesseurs hétérogènes dans le cadre des systèmes embarqués spécifiques." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0132.

Full text
Abstract:
La part du logiciel est de plus en plus importante dans les circuits électroniques spécifiques. Ce logiciel, complexe, doit pouvoir être décrit en faisant abstraction du matériel : il est alors nécessaire de fournir une couche logicielle faisant l'interface entre le logiciel de haut niveau et l'architecture spécifique. Cette étape, appelée "ciblage logiciel" est une étape fastidieuse qu'il serait intéressant d'automatiser. Ce mémoire propose de réaliser automatiquement cette étape en générant des systèmes d'exploitation spécifiques à l'architecture et à l'application logicielle. L'outil de ciblage présenté prend en entrée une spécification de l'architecture et de l'application, et produit en sortie le code des systèmes d'exploitation spécifiques pour chaque processeur en sélectionnant et assemblant des éléments contenus dans une bibliothèque. La spécification logicielle prend la forme de tâches interconnectées dont le comportement est indépendant de l'architecture : une API (pour "Application Programming Interface" en anglais) est fournie par les systèmes d'exploitation pour réaliser les opérations dépendant de l'architecture telles que les communications. Cet outil a été utilisé pour une application VDSL. L'objectif était de générer deux systèmes d'exploitation pour deux processeurs ARM7, avec plusieurs protocoles de communication et de synchronisation. Les systèmes générés se sont avérés de très petites tailles, et leurs performances se comparent favorablement à celles des systèmes d'exploitation commerciaux.
APA, Harvard, Vancouver, ISO, and other styles
22

Tka, Mouna. "Génération automatique de test pour les contrôleurs logiques programmables synchrones." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM020/document.

Full text
Abstract:
Ce travail de thèse, effectué dans la cadre du projet FUI Minalogic Bluesky, porte sur le test fonctionnel automatisé d'une classe particulière de contrôleurs logiques programmables (em4) produite par InnoVista Sensors. Ce sont des systèmes synchrones qui sont programmés au moyen d'un environnement de développement intégré (IDE). Les personnes qui utilisent et programment ces contrôleurs ne sont pas nécessairement des programmeurs experts. Le développement des applications logicielles doit être par conséquent simple et intuitif. Cela devrait également être le cas pour les tests. Même si les applications définies par ces utilisateurs ne sont pas nécessairement très critiques, il est important de les tester d'une manière adéquate et efficace. Un simulateur inclu dans l'IDE permet aux programmeurs de tester leurs programmes d'une façon qui reste à ce jour informelle et interactive en entrant manuellement des données de test. En se basant sur des recherches précédentes dans le domaine du test des programmes synchrones, nous proposons un nouveau langage de spécification de test, appelé SPTL (Synchronous Programs Testing Language) qui rend possible d'exprimer simplement des scénarios de test qui peuvent être exécutées à la volée pour générer automatiquement des séquences d'entrée de test. Il permet aussi de décrire l'environnement où évolue le système pour mettre des conditions sur les entrées afin d'arriver à des données de test réalistes et de limiter celles qui sont inutiles. SPTL facilite cette tâche de test en introduisant des notions comme les profils d'utilisation, les groupes et les catégories. Nous avons conçu et développé un prototype, nommé "Testium", qui traduit un programme SPTL en un ensemble de contraintes exploitées par un solveur Prolog qui choisit aléatoirement les entrées de test. La génération de données de test s'appuie ainsi sur des techniques de programmation logique par contraintes. Pour l'évaluer, nous avons expérimenté cette méthode sur des exemples d'applications EM4 typiques et réels. Bien que SPTL ait été évalué sur em4, son utilisation peut être envisagée pour la validation d'autres types de contrôleurs ou systèmes synchrones
This thesis work done in the context of the FUI project Minalogic Bluesky, concerns the automated functional testing of a particular class of programmable logic controllers (em4) produced by InnoVista Sensors. These are synchronous systems that are programmed by means of an integrated development environment (IDE). People who use and program these controllers are not necessarily expert programmers. The development of software applications should be as result simple and intuitive. This should also be the case for testing. Although applications defined by these users need not be very critical, it is important to test them adequately and effectively. A simulator included in the IDE allows programmers to test their programs in a way that remains informal and interactive by manually entering test data.Based on previous research in the area of synchronous test programs, we propose a new test specification language, called SPTL (Synchronous Testing Programs Language) which makes possible to simply express test scenarios that can be executed on the fly to automatically generate test input sequences. It also allows describing the environment in which the system evolves to put conditions on inputs to arrive to realistic test data and limit unnecessary ones. SPTL facilitates this testing task by introducing concepts such as user profiles, groups and categories. We have designed and developed a prototype named "Testium", which translates a SPTL program to a set of constraints used by a Prolog solver that randomly selects the test inputs. So, generating test data is based on constraint logic programming techniques.To assess this, we experimented this method on realistic and typical examples of em4 applications. Although SPTL was evaluated on EM4, its use can be envisaged for the validation of other types of synchronous controllers or systems
APA, Harvard, Vancouver, ISO, and other styles
23

Valderrama, Carlos. "Prototype virtuel pour la génération des architectures mixtes logicielles-matérielles." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0121.

Full text
Abstract:
L'objectif de ce travail de thèse est le développement d'une méthodologie pour la génération rapide d'architectures flexibles et modulaires pour les systèmes distribués. Cette approche, appelé aussi "prototypage virtuel", est une étape essentielle dans le processus de conception conjointe des systèmes mixtes logiciel/matériel. Les approches de recherche dans ce domaine sont motivées par le besoin urgent de prototypes pour valider la spécification, par la disponibilité des outils et des environnements de synthèse pour les parties logicielles et matérielles. Le prototypage virtuel permet à la fois la manipulation du domaine logiciel ainsi que du domaine matériel. Il prend en entrée une architecture hétérogène composée d'un ensemble de modules distribués issu du découpage matériel/logiciel et génère des descriptions exécutables pour des éléments matériels et logiciels. Ce travail décrit une stratégie de prototypage virtuel pour la co­synthèse (génération des modules matériels et logiciels sur une plate­forme architecturale) et la co­simulation (c'est­à­dire la simulation conjointe de ces deux composants) dans un environnement unifié. Ces travaux définissent également le développement d'un environnement de co­simulation distribué et flexible permettant l'utilisation de différents outils de simulation, de langages, la génération de modèles matériels et logiciels synthésisables et l'ordonnancement des modèles multiprocesseurs sur une architecture monoprocesseur. Cette approche, présentée dans la conférence ED&TC, a obtenu le prix de l'année 1995. Des outils ont été mis en pratique dans l'environnement de conception conjointe Cosmos. Ce travail a aussi fait l'objet d'un transfert de technologie au profit de SGS­Thomson Microelectronics. Les outils développés au cours de cette thèse ont été utilisés pour les projets Européens COMITY (particulièrement utilisé par l'Aérospatiale Missiles à Toulouse et Intracom en Grèce) et CODAC, et par d'autres groupes comme le FZI de l'université de Tübingen et PSA à Paris
The objective of this work is to develop a methodology for the generation of flexible and modular architectures for distributed systems. This approach (also called " virtual prototyping ") is an essential stage in the process of joint design (codesign) of mixed software/hardware systems. Virtual prototyping takes as input a heterogeneous architecture made up of a whole of distributed modules resulting from software/hardware partitioning. It generates executable descriptions for software and hardware elements. Research approaches in this field are justified by the evolution of technology, the urgent need for prototypes to validate the specification, and by the availability of tools and synthesis environments for the design of software and hardware parts. One of the major difficulties of virtual prototyping is that it allows at the same time to handle both, software and hardware. This work describes a strategy of virtual prototyping for the cosynthesis (generation of the modules material and software on an architectural platform) and cosimulation (i. E. The joint simulation of these two kind of components) in a unified environment, the development of a distributed and flexible cosimulation environment allowing the use of several simulation tools and languages, the generation of hardware/software synthesizable models and mono-processor architecture software generation for a set of communicating processes. This approach, presented in the ED&TC conference, got the best paper award in 1995. The tools developed during this thesis were put into practice in the Cosmos codesign environment. One of them was transferred to SGS-Thomson Microelectronics. The tools were also used for the Europeans projects COMITY (particularly used by Aerospace the Missiles in Toulouse and Intracom in Greece) and CODAC, and by other groups like the FZI of the university of Tübingen and PSA in Paris
APA, Harvard, Vancouver, ISO, and other styles
24

Fellahi, Mohammed. "Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00683224.

Full text
Abstract:
Les applications de flux de données sont des cibles importantes de l'optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d'application: communication, systèmes embarqués, multimédia, etc. L'un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d'applications est comment les ordonnancer à grain fin à fin d'exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l'ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l'épilogue de chaque boucle (phase) parallélisée pour éviter l'augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d'autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l'application de cette technique permet l'amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général.
APA, Harvard, Vancouver, ISO, and other styles
25

Rémy, Pascal. "Conception et réalisation d'un processeur pour la génération d'un modèle bond-graph à partir de différentes descriptions de systèmes physiques sous le logiciel Archer." Lille 1, 1994. http://www.theses.fr/1994LIL10142.

Full text
Abstract:
La modelisation est une etape importante dans l'etude des systemes physiques, prealablement aux phases d'analyse et de simulation. La technique bond-graph est un outil performant qui fournit un modele unifie quel que soit le domaine physique auquel le systeme appartient. Cela permet de coupler des sous-systemes de domaines physiques differents. Le logiciel archer, base sur la methodologie bond-graph a pour objectif d'aider un utilisateur bond-graphiste dans son approche de modelisation et d'analyse et d'eviter a un non-bond-graphiste l'apprentissage des principales taches de l'outil bond-graph. Dans ce memoire, nous presentons le compilateur de modeles d'archer qui permet de generer un code bond-graph a partir d'une description, sous une forme texte, du systeme physique. Celui-ci se decompose en sous-systemes elementaires (masses, ressorts, inductances, resistances,) ou en sous-parties plus complexe (moteur, pompe, verin,). Chaque sous-systeme est represente comme un objet bloc, appartenant a une classe d'objets, avec ses caracteristiques et ses proprietes. Il est stocke dans une base de donnees. Pour coupler les blocs (bond-graphs, physiques, mathematiques) nous avons developpe differents langages utilisateurs avec leur propre grammaire, bases sur les notions de serie, parallele et nuds de connexions. Nous proposons une implementation de cette demarche en utilisant les methodes de l'intelligence artificielle et les concepts de la programmation orientee objet.
APA, Harvard, Vancouver, ISO, and other styles
26

Mischler, Éric. "Système informatique pour la génération de séquences RMN : application aux mesures d'auto-diffusion translationnelle par gradients de champ radiofréquence." Nancy 1, 1996. http://www.theses.fr/1996NAN10318.

Full text
Abstract:
Le présent mémoire comporte deux volets : le premier a trait à l'informatique et à l'instrumentation tandis que le second est davantage axé sur la physicochimie avec l'étude de l'auto-diffusion translationnelle moléculaire. Le dénominateur commun de ces deux volets est la RMN (Résonance Magnétique Nucléaire). Dans une première étape, nous avons été amenés à développer sur un ordinateur de type PC le logiciel GENESIS (GENErateur de Séquences Impulsionnelles pour Spectromètre rmn) afin de nous permettre de réaliser aisément toute séquence, quelque soit son degré d'originalité ou de complexité. Ce logiciel (convivial, souple, évolutif et portable), qui intègre un système d'acquisition et de contrôle de spectromètre développé au laboratoire, a d'ores et déjà été implanté sur trois appareils, dont un appareil de contrôle industriel. Un tel dispositif s'est avéré essentiel pour la mise au point et le développement des séquences élaborées, et en particulier celles décrites ci-dessous. Muni de cet outil, nous avons alors abordé la caractérisation des phénomènes d'autodiffusion par RMN en utilisant des gradients de champ radiofréquence. Une seule expérience, utilisant les gradients de champ radiofréquence, avait jusqu'ici été proposée. Nous nous sommes attachés à revoir les concepts de base de cette méthode et à proposer un certain nombre d'expériences originales en privilégiant soit la rapidité de la mesure pour les systèmes évolutifs, soit la localisation de la mesure pour les systèmes hétérogènes. Ce travail a permis de confirmer que cette méthode est parfaitement adaptée à de telles études et a contribué à asseoir cette technique qui, par rapport à la méthode conventionnelle par gradients de champ statique, présente une plus grande simplicité instrumentale et de mise en oeuvre et une quasi-immunité vis à vis des variations de susceptibilité magnétique au sein de l'échantillon. Quelques exemples d'application illustrent les performances de ces diverses séquences; nous présentons notamment une étude de pénétration de solvant dans un polymère au moyen d'images contrastées selon le coefficient d'auto-diffusion.
APA, Harvard, Vancouver, ISO, and other styles
27

Enard, Quentin. "Développement d'applications logicielles sûres de fonctionnement : une approche dirigée par la conception." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00829477.

Full text
Abstract:
Dans de nombreux domaines tels que l'avionique, la médecine ou la domotique, les applications logicielles jouent un rôle de plus en plus important, allant jusqu'à être critique pour leur environnement. Afin de pouvoir faire confiance à ces applications, leur développement est contraint par des exigences de sûreté de fonctionnement. En effet il est nécessaire de démontrer que ces exigences de haut-niveau sont prises en compte tout au long du cycle de développement et que des solutions concrètessont mises en œuvre pour parvenir à les respecter. De telles contraintes rendent le développement d'applications sûres de fonctionnement particulièrement complexe et difficile. Faciliter ce processus appelle à la recherche de nouvelles approches dedéveloppement qui intègrent des concepts de sûreté de fonctionnement et guident les développeurs lors de chacune des étapesnécessaires à la production d'une nouvelle application digne de confiance.Cette thèse propose ainsi de s'appuyer sur une approche dirigée par la conception pour guider le développement des applications sûres de fonctionnement. Cette approche est concrétisée à travers une suite d'outils nommée DiaSuite et offre du support dédié à chaque étape du développement. En particulier, un langage de conception permet de décrire à la fois les aspects fonctionnels et non-fonctionnels des applications en se basant sur un paradigme dédié et en intégrant des concepts de sûreté de fonctionnement tels que le traitement des erreurs. A partir de la description d'une application, du support est généré pour guider les phases d'implémentation et de vérification. En effet, la génération d'un framework de programmation dédié permet de guider l'implémentation tandis que la génération d'un modèle formel permet de guider la vérification statique de l'application et qu'un support de simulation permet de faciliter les tests. Cette approche est évaluée grâce à des cas d'études réalisés dans les domaines de l'avionique et de l'informatique ubiquitaire.
APA, Harvard, Vancouver, ISO, and other styles
28

Jonquet, Clement. "Génération dynamique de service : Interactions entre agents pour l'échange de service Grid." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00115389.

Full text
Abstract:
L'objet de cette thèse est la modélisation de l'échange dynamique de services. La notion de service joue désormais un rôle clé dans le développement, la diffusion et l'implémentation des systèmes distribués. Cette thèse propose une réflexion sur la notion de service et introduit le concept de Génération Dynamique de Service (GDS) comme une approche différente de l'échange de service en informatique, dans laquelle des services sont dynamiquement construits, fournis et utilisés par des agents (humains ou artificiels). Ces échanges de services sont basés sur des conversations qui ont lieu au sein de différentes communautés. Deux caractéristiques de la GDS sont particulièrement mises en avant : l'aspect orienté agent et l'aspect orienté Grid. La thèse se situe donc à l'intersection de trois domaines~: le Service-Oriented Computing (SOC), les Systèmes Multi-Agents (SMA) et GRID. Les trois contributions majeures sont :: (i) la proposition d'un nouveau modèle de représentation et de communication agent, appelé STROBE, qui permet aux agents de développer dynamiquement un langage différent pour chacun de leurs interlocuteurs. Ils sont capables d'interpréter des messages et d'exécuter des services dans des contextes de conversation dédiés; (ii) une fonction, appelée i-dialogue, qui modélise les conversations agents à l'aide des principes de la programmation applicative/fonctionnelle (i.e., flots, évaluation paresseuse, procédures de première classe) ; (iii) un modèle d'intégration GRID-SMA qui représente les capacités des agents par des services Grid. Dans ce modèle, un langage formel, appelé Agent-Grid Integration Language (AGIL), décrit sémantiquement et graphiquement les concepts clés de GRID et SMA, leurs relations, ainsi que les règles de leur intégration. AGIL intègre tous les résultats de la thèse en proposant une formalisation des interactions entre agents pour l'échange de services sur le Grid.
APA, Harvard, Vancouver, ISO, and other styles
29

Genestier, Richard. "Vérification formelle de programmes de génération de données structurées." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2041/document.

Full text
Abstract:
Le problème général de la preuve de propriétés de programmes impératifs est indécidable. Pour deslangages de programmation et de propriétés plus restrictifs, des sous-problèmes décidables sontconnus. En pratique, grâce à des heuristiques, les outils de preuve de programmes automatisent despreuves qui sortent du cadre théorique de ces sous-problèmes décidables connus. Nous illustronscette réussite pratique en construisant un catalogue de preuves, pour des programmes et despropriétés de nature similaire et de complexité croissante. Ces programmes sont principalementdes générateurs de cartes combinatoires.Ainsi, ce travail contribue aux domaines de recherche de la combinatoire énumérative et dugénie logiciel. Nous distribuons une bibliothèque C de générateurs exhaustifs bornés de tableauxstructurés, formellement spécifiés en ACSL et vérifiés avec le greffon WP de la plateforme d’analyseFrama-C. Nous proposons également une méthodologie de test qui facilite la preuve interactive enCoq, une étude formelle des cartes originale, et de nouveaux résultats en combinatoire énumérative
The general problem of proving properties of imperative programs is undecidable. Some subproblems– restricting the languages of programs and properties – are known to be decidable. Inpractice, thanks to heuristics, program proving tools sometimes automate proofs for programs andproperties living outside of the theoretical framework of known decidability results. We illustrate thisfact by building a catalog of proofs, for similar programs and properties of increasing complexity. Mostof these programs are combinatorial map generators.Thus, this work contributes to the research fields of enumerative combinatorics and softwareengineering. We distribute a C library of bounded exhaustive generators of structured arrays, formallyspecified in ACSL and verified with the WP plugin of the Frama-C analysis platform. We also proposea testing-based methodology to assist interactive proof in Coq, an original formal study of maps, andnew results in enumerative combinatorics
APA, Harvard, Vancouver, ISO, and other styles
30

Varet, Antoine. "Conception, mise en oeuvre et évaluation d'un routeur embarqué pour l'avionique de nouvelle génération." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00932283.

Full text
Abstract:
Le contexte aéronautique a depuis plusieurs années mis en évidence le besoin croissant de technologies de sécurité permettant d'éviter des utilisations malveillantes des matériels ou services installés à bord des avions. La plupart des approches de sécurisation 'avion' se concentre sur des méthodes et techniques permettant de sécuriser les échanges au sein de l'avion. Elles sont cependant inadaptées à la sécurisation dans les cas d'interconnexion des réseaux avioniques avec le reste des réseaux de communication (réseau Internet par exemple). Le problème abordé dans ce travail de thèse vise donc à proposer une architecture de sécurité et de sûreté pour l'ensemble des communications aéronautiques et permettant une interconnexion sécurisée entre le monde 'avion' et le monde extérieur, en tenant compte de l'ensemble des critères de sécurité qui caractérisent les divers environnements traversés et considère dès le départ les divers principes de standardisation associés afin de garantir la pérennité scientifique et industrielle. La solution architecturale proposée dans ce travail de thèse repose principalement sur un composant central de routage, de filtrage et de sécurisation des flux de données aéronautiques. Le travail de conception et de développement de ce composant appelé Routeur Sécurisé de Nouvelle Génération (routeur SNG) a permis une validation expérimentale sur un système reproduisant un système embarqué.
APA, Harvard, Vancouver, ISO, and other styles
31

Nicolas, Ferry. "Formalisation des modèles de la méthode MACAO et réalisation d'un outil de génie logiciel pour la création d'interfaces homme-machine." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00647482.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'ingénierie des Interfaces Homme-Machine. Elle a pour thème la conception et la réalisation des modèles d'IHM de la méthode MACAO. Nous étudions l'axe de création des interfaces utilisateur en différenciant trois niveaux de la conception à la réalisation. L'approche adoptée s'appuie sur une analyse théorique et sur des cas d'expériences pratiques des modèles. Cette démarche entre dans le cadre très en vogue des modèles et des transformations de modèles. Cette étude nous conduit à distinguer les étapes de conception d'une IHM en milieu industriel et à mettre en place un processus pour la réalisation des modèles et des maquettes dans la phase de recueil des besoins. En étudiant sur des projets réels la conception des IHM utilisant une représentation abstraite, nous soulignons toute l'importance de traiter de l'interface utilisateur avec l'utilisateur final et l'importance de la concevoir comme un élément de l'architecture générale dès les phases de conception. Nous proposons un procédé de conception de l'architecture de l'IHM qui répond aux besoins de la conception d'une IHM. Ce processus est complété par des modèles à des niveaux de raffinement différents. Nous proposons des métamodèles de ces différentes vues de la création des IHM. Et nous proposons un outil de génie logiciel qui permet d'éditer et d'utiliser le modèle du SNI. De part ses critères et ses techniques de représentation, MACAO représente une des plus douces et progressives façons d'implémenter une interface homme-machine.
APA, Harvard, Vancouver, ISO, and other styles
32

Enard, Quentin. "Développement d'applications logicielles sûres de fonctionnement: une approche dirigee par la conception." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00839298.

Full text
Abstract:
Dans de nombreux domaines tels que l'avionique, la médecine ou la domotique, les applications logicielles jouent un rôle de plus en plus important, allant jusqu'à être critique pour leur environnement. Afin de pouvoir faire confiance à ces applications, leur développement est contraint par des exigences de sûreté de fonctionnement. En effet il est nécessaire de démontrer que ces exigences de haut-niveau sont prises en compte tout au long du cycle de développement et que des solutions concrètes sont mises en oeuvre pour parvenir à les respecter. De telles contraintes rendent le développement d'applications sûres de fonctionnement particulièrement complexe et difficile. Faciliter ce processus appelle à la recherche de nouvelles approches de développement qui intègrent des concepts de sûreté de fonctionnement et guident les développeurs lors de chacune des étapes nécessaires à la production d'une nouvelle application digne de confiance. Cette thèse propose ainsi de s'appuyer sur une approche dirigée par la conception pour guider le développement des applications sûres de fonctionnement. Cette approche est concrétisée à travers une suite d'outils nommée DiaSuite et offre du support dédié à chaque étape du développement. En particulier, un langage de conception permet de décrire à la fois les aspects fonctionnels et non-fonctionnels des applications en se basant sur un paradigme dédié et en intégrant des concepts de sûreté de fonctionnement tels que le traitement des erreurs. A partir de la description d'une application, du support est généré pour guider les phases d'implémentation et de vérification. En effet, la génération d'un framework de programmation dédié permet de guider l'implémentation tandis que la génération d'un modèle formel permet de guider la vérification statique de l'application et qu'un support de simulation permet de faciliter les tests. Cette approche est évaluée grâce à des cas d'études réalisés dans les domaines de l'avionique et de l'informatique ubiquitaire.
APA, Harvard, Vancouver, ISO, and other styles
33

Harik, Ramy. "Spécifications de fonctions pour un système d'aide à la génération automatique de gamme d'usinage : Application aux pièces aéronautiques de structure, prototype logiciel dans le cadre du projet RNTL USIQUICK." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00173161.

Full text
Abstract:
Notre travail de thèse se place dans le cadre du projet RNTL USIQUICK (www.usiquick.com) dont l'objet est de répondre aux besoins des industries aéronautiques dans le domaine de la fabrication de pièce de structure de complexité moyenne à forte. Il s'agit d'assurer l'automatisation de l'élaboration des posages, de la gamme et des programmes d'usinage de ce type de pièce. Notre contribution se trouve dans l'étude du Transformateur qui est le module de transformation de la géométrie pièce en une géométrie adaptée à la fabrication. Ce Transformateur doit fournir les informations nécessaires aux 2 modules en aval d'USIQUICK : le module Préparation et le module Calcul de Trajectoire.
L'enchaînement des étapes permettant le calcul de ces fonctions est déterminé. Il comporte :
- une première étape d'enrichissement du modèle géométrique CAO,
- une deuxième étape permettant d'extraire les entités d'usinage élémentaires. Aux faces sont ainsi liées les informations technologiques suivantes : mode d'usinage, directions et outils possibles,
- une troisième étape d'analyse du graphe d'adjacence de la pièce qui détermine les faces pouvant être usinées simultanément.
Ces étapes sont implémentées en CAA® dans un démonstrateur dont la validité est présentée sur quelques exemples. Son degré de robustesse est évalué.
Les apports de ce travail sont relatifs à la notion d'entité élémentaire, d'entité de haut niveau orientée type d'usinage, de caractérisation des extrémités d'élancements et à la définition de fonctions opérateur.
Le mémoire se termine par une synthèse des fonctions qui devraient être implémentées dans le logiciel CATIA afin que le Transformateur devienne un produit industriel.
APA, Harvard, Vancouver, ISO, and other styles
34

Harik, Ramy Farid. "Spécifications de fonctions pour un système d'aide à la génération automatique de gamme d'usinage : application aux pièces aéronautiques de structure, prototype logiciel dans le cadre du projet RNTL USIQUICK." Nancy 1, 2007. http://docnum.univ-lorraine.fr/public/SCD_T_2007_0077_HARIK.pdf.

Full text
Abstract:
Notre travail de thèse se place dans le cadre du projet RNTL USIQUICK (www. Usiquick. Com) dont l’objet est de répondre aux besoins des industries aéronautiques dans le domaine de la fabrication de pièces de structure de complexité moyenne à forte. Il s’agit d’assurer l’automatisation de l’élaboration des posages, de la gamme et des programmes d’usinage. Notre contribution se trouve dans l’étude du Transformateur qui est le module d’enrichissement de la géométrie pièce en une géométrie adaptée à la fabrication. Ce Transformateur doit fournir les informations nécessaires aux 2 modules avales d’USIQUICK : le module Préparation et le module Calcul de Trajectoire. L’enchaînement des étapes permettant le calcul de ces fonctions est déterminé. Il comporte : une première étape d’enrichissement du modèle géométrique CAO, une deuxième étape permettant d’extraire les entités d’usinage élémentaires. Aux faces sont ainsi liées les informations technologiques suivantes : mode d’usinage, directions et outils possibles, une troisième étape d’analyse du graphe d’adjacence de la pièce qui détermine les faces pouvant être usinées simultanément. Ces étapes sont implémentées en CAA® dans un démonstrateur dont la validité est présentée sur quelques exemples. Son degré de robustesse est évalué. Les apports de ce travail sont relatifs à la notion d’entité élémentaire, d’entité de haut niveau orientée type d’usinage, de caractérisation des extrémités d’élancements et à la définition de fonctions opérateur. Le mémoire se termine par une synthèse des fonctions qui devraient être implémentées dans le logiciel CATIA afin que le Transformateur devienne un produit industriel
Our PhD work comes within the framework of the USIQUICK RNTL project (www. Usiquick. Com) that aims to answer the needs of some aircraft industries in the domain of structural parts manufacturing that are of an average to high complexity. Automating the manufacturing fixture, process planning and generating the NC programs are the expected results. Our contribution lies in the study of the ‘Transformer’, a module dedicated to enriching the part geometry into one that is adapted to manufacturing. The ‘Transformer’ must supply the necessary information needed by the two other USIQUICK modules: Process planning and Automatic milling path generator. The sequence of steps allowing to compute the different functions is determined. It includes: a first step during which the CAD geometrical model is enriched, a second step during which the different ‘Elementary Manufacturing Features’ are extracted. The faces composing the CAD model are completed by their: milling mode, milling directions and possible milling tools, a last step, where a face adjacency’ graph analysis is proceeded, pointing all the faces that could be milled simultaneously. These steps are implemented using CAA® in a prototype. The validity is presented in some examples. The degree of its robustness is evaluated. The main results of our PhD are: the definition of the ‘Elementary Manufacturing Feature’, high level milling features extractions, thin features identification and the CAPP functions definition. This PhD report ends with a synthesis of the functions that should be implemented in CATIA so that the ‘Transformer’ becomes an industrial product
APA, Harvard, Vancouver, ISO, and other styles
35

Bedin, França Ricardo. "Processus et outils qualifiables pour le développement de systèmes critiques certifiés en avionique basés sur la génération automatique de code." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0028.

Full text
Abstract:
Le développement des logiciels avioniques les plus critiques, comme les commandes de vol électriques, présentent plusieurs contraintes qui peuvent être quasiment contradictoires – par exemple, performance et sûreté – et toutes ces contraintes doivent être respectées simultanément. L'objective de cette thèse est d'étudier et de proposer des évolutions dans le cycle de développement des logiciels de commande de vol chez Airbus afin d'améliorer leur performance, tout en respectant les contraintes industrielles existantes et en conservant des processus de vérification au moins aussi sûrs que ceux utilisés actuellement. Le critère principal d'évaluation de performance est le temps d'exécution au pire cas (WCET), vu qu'il est utilisé lors des analyses temporelles des logiciels de vol réels. Dans un premier temps, le DO-178, qui contient des considérations pour l'approbation des logiciels avioniques, est présenté. Le DO-178B et le DO-178C sont étudiés. Le DO-178B est la référence pour plusieurs logiciels de commande de vol développés chez Airbus et le DO-178C est la référence pour le développement des nouveaux logiciels à partir de 2012. Ensuite, l'étude de cas est présentée. Afin d'améliorer sa compréhension, le contexte historique est fourni à travers l'étude des autres logiciels de commande de vol, car plusieurs activités de son cycle de vie réutilisent des techniques qui ont été utilisées avec succès dans des projets précédents. Quelques activités qui présentent des causes potentielles de pertes de performance logicielle sont exposées et l'axe principal d'étude choisi pour le reste de la thèse est la phase de compilation. Ce choix se justifie dans le contexte des logiciels de commande de vol car la compilation est réalisée avec peu ou pas d'optimisations, son impact sur la performance des logiciels est donc important et des travaux de recherche récents permettent d'envisager un changement dans les paradigmes actuels de compilation sûre
The development of safety-critical avionics software, such as aircraft flight control programs, presents many different constraints that are nearly contradictory, such as performance and safety requirements, and all must be met simultaneously. The objective of this Thesis is to propose modifications in the development cycle of Airbus flight control programs in order to improve their performance without weakening their verification processes or violating other industrial constraints. The main criterion for performance evaluation is the Worst-Case Execution Time (WCET), as it is used in the timing analysis that is performed in actual avionics software verification processes. In a first moment, the DO-178, which contains guidance for avionics software development approval, is presented. Both the DO-178B and the DO-178C are discussed, since the former was the reference for the development of many Airbus flight control programs and the latter shall be the reference for the development of new programs, starting from 2012. Then, the case study is presented. In order to better understand it, some historical context is provided by the study of other flight control programs - many of its life cycle activities reuse techniques that were successful in previous software projects. Each activity is evaluated in order to underline what are the performance bottlenecks in the flight control software development. Some potential underperforming activities are depicted and the main axis of study developed subsequently is the compilation phase: not only it is a well-known unoptimized activity that has important impacts over software performance, but it is also an activity that might undergo a paradigm change due to innovating compilers that are being developed by researchers. The CompCert compiler is presented and its use in the scope of this Thesis is justified - at the time of this Thesis, it was the compiler that was best prepared to perform meaningful experiments, such as compiling a large subset of the chosen case study. Its architecture is studied, together with its semantic preservation theorem, which is the backbone of its formally-verified part. Additional features that were developed in CompCert during this Thesis in order to meet Airbus's requirements - such as its annotation mechanism and its reference interpreter - are discussed in order to underline their usefulness in the development of flight control software. The evaluation of CompCert consists in a performance comparison with the current compilation strategy and an assessment of the impacts that its utilization might have over the verification strategy commonly employed in flight control software. The results of the performance comparison are promising, since CompCert-generated code has a WCET more than 10% lower than if it were compiled with a good quality non-optimizing compiler. As expected, the use of CompCert has impacts over some important verification activities but its formal development and increased verifiability helps in the development of new compiler verification activities that can keep the whole development process at least as safe as the current one. Some development strategy propositions are then presented, according to the certification credit that might be required by using CompCert
APA, Harvard, Vancouver, ISO, and other styles
36

Broult, Christophe. "LPV, une nouvelle technologie de validation du logiciel basée sur la programmation linéaire : application informelle "en éclaireur" à la génération de scénarios de test non triviaux pour les cartes à microprocesseur." Caen, 1999. http://www.theses.fr/1999CAEN2074.

Full text
Abstract:
Avec la generalisation de leur emploi et des exigences de qualite croissantes, la validation des systemes logiciels devient problematique. Les methodes formelles sont considerees comme la solution a utiliser pour verifier les systemes dits critiques. Toutefois, sauf dans des cas tres precis, elles n'ont jusqu'a present pas ete capables de faire face a la taille et a la complexite des applications industrielles. Parallelement au debut de cette these, lpv, une nouvelle technologie de validation du logiciel basee sur la programmation lineaire, naissait a l'universite de caen et nous avons participe a sa mise au point en travaillant pour le cnet caen a la modelisation d'une carte a microprocesseur dans le but de generer des scenarios de test non triviaux. Le premier chapitre presente le contexte et les techniques visant a ameliorer la qualite du logiciel. Il se termine en situant ce travail dans le monde des cartes a microprocesseur et en donnant les objectifs de la these. Apres avoir expose les principes de lpv, le deuxieme chapitre presente l'utilisation informelle en eclaireur de cette technologie dans le cadre de la generation de scenarios de test non triviaux pour les cartes a microprocesseur. L'objectif etait de voir les problemes rencontres lors d'une telle application. Les solutions ad hoc et pragmatiques proposees ont servi, d'une part, a definir les elements essentiels pour obtenir une technologie de validation applicable a des problemes industriels et, d'autre part, a alimenter le travail theorique qui a conduit l'ensemble de l'equipe lpv a produire des solutions praticables aux problemes souleves lors de ces experiences. Nous concluons la these en presentant des extensions necessaires pour faire de lpv un veritable outil de genie logiciel.
APA, Harvard, Vancouver, ISO, and other styles
37

Voiron, Guillaume. "Exploration concrétisée et pertinente de systèmes d'événements abstraits en vue de la génération automatique de tests." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD027.

Full text
Abstract:
Les travaux présentés dans cette thèse constituent une contribution aux méthodes de génération automatique de sous-approximations en vue de la génération de tests a` partir de modèles. Le test à partir de modèle a pour objectif de garantir la conformité d’une implémentation vis-à-vis d’un modèle, tous les deux conçus à partir des spécifications par deux équipes différentes.Dans cette thèse, nous proposons l’utilisation des techniques connues d’abstraction à partir de prédicats de modèles comportementaux qui permettent de réduire à un ensemble fini et restreint l’espace d’états manipulé. Nous proposons d’extraire les prédicats d’abstraction à partir de l’objectif de test afin que les tests générés couvrent les comportements ciblés par ce dernier. Cependant, le calcul d’une abstraction entraîne une perte d’information de l’atteignabilité par rapport au modèle initial. Nos objectifs sont donc dans un premier temps de calculer efficacement une abstraction de modèle aussi représentative que possible d’un objectif de test. Dans un second temps, nous cherchons a` extraire a` partir de cette abstraction des exécutions instanciables sur le modèle avant abstraction, ciblant les comportements a` tester, et visant la couverture des états et des transitions du modèle abstrait.Nos contributions sont les suivantes. Nous définissons une méthode de génération de tests combinant plusieurs algorithmes qui permettent d’obtenir une bonne couverture structurelle d’une abstraction de modèle comportemental non déterministe. Nous proposons dans un premier temps un algorithme calculant une abstraction de modèle par prédicats issus d’un objectif de test exprime´ sous la forme d’une propriétée temporelle. Cet algorithme calcule une sous-approximation du modèle en couvrant les états et les transitions abstraits du modèle. Il applique plusieurs heuristiques et diverses techniques d’exploration ayant pour but d’augmenter le nombre d’instances effectivement atteintes. Dans un second temps, nous proposons d’améliorer par le biais de deux autres algorithmes la couverture structurelle obtenue par cette première sous-approximation. Le premier, entièrement automatisé, tire parti des modalités des transitions abstraites qui fournissent des propriétés d’atteignabilité. Le second algorithme d’extension de la sous-approximation fait appel à l’expertise du testeur qui doit, a` partir des transitions non couvertes, énoncer un prédicat de pertinence qui guide et limite l’exploration et l’instanciation réalisées. Nous définissons un ensemble de règles permettant d’énoncer ce prédicat de pertinence et de calculer un variant garantissant la terminaison de l’algorithme d’exploration. Ces deux algorithmes complètent la sous-approximation obtenue auparavant par des exécutions instanciables. Enfin, nous mettons en œuvre une démarche expérimentale pour l’évaluation de la qualité de la méthode, portant sur cinq études de cas
The work presented in this thesis contributes to the automated under-approximation generation techniques in order to generate tests from models.Model based testing aims at guaranteeing the conformity of an implementation with regards to a model, both designed from specifications by two distinct teams.In this thesis, we propose to use well known abstraction techniques by using predicates extracted from behavioural models allowing to reduce the manipulated state space to a finite and narrow set. We propose to extract the abstraction predicates from the test purpose so that the generated tests cover the behaviours it targets. However, the computation of an abstraction causes a loss of information of the reachability with regards to the initial model. Our goals are, on the one hand, to efficiently compute an abstraction of the model as representative as possible of a test purpose. On the other hand, we strive to extract executions from this abstraction which can be instanciated on the model before its abstraction, targeting the behaviours to test, and aiming at covering the states and the transitions of the abstracted model.Our contributions are the following. We define a test generation method combining various algorithms allowing to obtain a good structural coverage of the abstraction of a non deterministic behavioural model. We first propose an algorithm computing the abstraction of a model using predicates extracted from a test purpose expressed as a temporal property. This algorithm computes an under-approximation of the model by covering the abstract states and transitions of the model. It applies various exploration heuristics and techniques with the aim of increasing the amount of reached instances. Then, we propose to improve by the means of two other algorithms the structural coverage obtained by this first under-approximation. The first of these algorithms, fully automated, takes advantage of the known modalities of the abstract transitions which provide us with reachability properties. The second under-approximation extension algorithm uses the expertise of the tester who must, from non covered transitions, design a relevance predicate which will guide and limit the exploration and the instanciations. We define a set of rules allowing to express this relevance predicate and compute a variant guaranteeing the termination of the exploration algorithm. These two algorithms complete the under-approximation by necessarily instanciable executions. Finally, we experimentally assess the quality of the method on five case studies
APA, Harvard, Vancouver, ISO, and other styles
38

Benhima, Abderrahim. "Contribution à l'optimisation dynamique de mouvements de robots-manipulateurs avec génération automatique des équations du problème optimal." Poitiers, 1989. http://www.theses.fr/1989POIT2278.

Full text
Abstract:
Developpement d'un logiciel specifique en langage fortran 77 pour l'optimisation dynamique de trajectoire de robot allant d'une position donnee a une autre fixee pendant un temps oppose. Le critere a minimiser porte sur les efforts moteurs et/ou les forces de liaison aux articulations du robot
APA, Harvard, Vancouver, ISO, and other styles
39

Cabrera, Castillos Kalou. "Génération automatique de scénarios de tests à partir de propriétés temporelles et de modèles comportementaux." Phd thesis, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00924485.

Full text
Abstract:
Les travaux proposés dans cette thèse, effectuée dans le cadre du projet ANR TASCCC, présentent une technique de génération de tests à partir de modèles comportementaux en UML/OCL et de proprié- tés temporelles. Pour cela, nous décrivons un langage de propriétés temporelles inspiré des patrons de propriétés introduits par M. Dwyer et al.. Une propriété est définie comme la combinaison d'une portée, qui représente les exécutions du système dans laquelle un motif doit être satisfait. Nous associons à chaque portée et motif une sémantique à base d'automates particuliers, les automates de substitution. Par un mécanisme de substitution d'un automate de motif dans un automate de portée, nous obtenons un automate représentant la sémantique de la propriété. Nous avons ensuite défini des critères de couverture nominaux, inspirés des critères de couverture classiques sur les automates, spécifiques à nos automates de propriété. Ces critères se concentrent sur les informations supplémentaires apportées par la propriété originale, telles que ses évènements, sa portée et son motif. En complément, nous avons défini un critère de couverture qui, par le biais de mutation d'évènements de certaines transitions, permet de cibler des exécutions potentiellement dangereuses du système en tentant de provoquer les évènements interdits de la propriété. Ensuite, nous avons défini pour chaque critère un algorithme qui permet d'extraire des chemins dans l'automate, ciblant les éléments du critère considéré. Ces chemins sont traduits en scénarios dans un langage que nous avons défini. Enfin, un dépliage combinatoire de ces scénarios, éventuellement guidé par des directives de pilotage intégrées à celui-ci, permet la génération de cas de tests abstraits. Finalement, cette approche a été validée par une expérimentation sur une étude de cas dans ce document et sur GlobalPlatform, l'étude de cas de taille industrielle dans le cadre du projet TASCCC.
APA, Harvard, Vancouver, ISO, and other styles
40

Moneimne, Walid. "TAO vers l'arabe : spécification d'une génération standard de l'arabe ; réalisation d'un prototype anglais-arabe à partir d'un analyseur existant." Grenoble 1, 1989. http://www.theses.fr/1989GRE10061.

Full text
Abstract:
La these se situe dans un ensemble d'etudes linguistiques et informatiques visant a voir dans quelle mesure la methode linguistique et les outils informatiques du geta s'appliquent a la langue arabe. Apres une breve synthese des etudes anterieures en traitement automatique des langues naturelles applique a l'arabe, sont rappeles les fondements de la traduction assistee par ordinateur ainsi que les aspects theoriques et methodologiques les plus marquants de l'approche suivie au geta. Cette approche consiste essentiellement a travailler simultanement a differents niveaux d'interpretation de description linguistique en programmant dans des langages specialises pour la programmation linguistique (lspls). Ensuite est montre en detail comment a ete specifie et implemente un logiciel de traduction de l'anglais vers l'arabe. Est specifiee une grammaire statique d'un sous-ensemble de la langue arabe a l'aide du formalisme des grammaires statiques (correspondances arbre-chaine). Pour specifier la grammaire du transfert est proposee une generalisation de ce formalisme aux correspondances arbre-arbre. Tout au long de la these, sont proposes des exemples et des traces d'execution permettant de suivre les principes de la methode utilisee
APA, Harvard, Vancouver, ISO, and other styles
41

Dolques, Xavier. "Génération de Transformations de Modèles : une approche basée sur les treillis de Galois." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00916856.

Full text
Abstract:
La transformation de modèles est une opération fondamentale dans l'ingénierie dirigée par les modèles. Elle peut être manuelle ou automatisée, mais dans ce dernier cas elle nécessite de la part du développeur qui la conçoit la maîtrise des méta-modèles impliqués dans la transformation. La génération de transformations de modèles à partir d'exemples permet la création d'une transformation de modèle en se basant sur des exemples de modèles sources et cibles. Le fait de travailler au niveau modèle permet d'utiliser les syntaxes concrètes définies pour les méta-modèles et ne nécessite plus une maîtrise parfaite de ces derniers.Nous proposons une méthode de génération de transformations de modèles à partir d'exemples basée sur l'Analyse Relationnelle de Concepts (ARC) permettant d'obtenir un ensemble de règles de transformations ordonnées sous forme de treillis. L'ARC est une méthode de classification qui se base sur des liens de correspondances entre les modèles pour faire émerger des règles. Ces liens étant un problème commun à toute les méthodes de génération de transformation de modèles à partir d'exemples, nous proposons une méthode basée sur des méthodes d'alignement d'ontologie permettant de les générer.
APA, Harvard, Vancouver, ISO, and other styles
42

Molinari, Isabelle. "Test de génération de thrombine sur ACL7000 (développement d'un programme de traitement des données sur Microsoft Excel et éléments d'analyse de l'intérêt du test dans les états d'hypercoagulabilité)." Bordeaux 2, 1999. http://www.theses.fr/1999BOR23102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Dia, Cheikh Tidiane. "Génération de modeles compacts thermiques dynamiques de composants electroniques via les algorithmes genetiques." Thesis, Paris 10, 2015. http://www.theses.fr/2015PA100172/document.

Full text
Abstract:
La simulation détaillée au niveau carte de ces nouveaux types de packages est quasiment impossible du fait de la limitation des moyens de calculs actuels. En outre, dans la plupart des cas de conception électronique, seule l’estimation des températures en quelques points est intéressante. Une étude détaillée au niveau composant n’est pas nécessairement pertinente. Il faut donc un compromis entre faisabilité et/ou rapidité des calculs et une précision sur les paramètres importants. Une alternative est de trouver des modèles comportementaux équivalents aux modèles détaillés, capable de reproduire son comportement thermique aux points cruciaux. C’est dans cette optique que le projet européen DELPHI (Development of libraries of physical models of electronic components for an integrated design environment) a été initié en 1993. L’objectif de ce projet était de pouvoir générer un modèle compact à partir d’un modèle détaillé d’un composant électronique. Celui-ci a ainsi abouti à une standardisation du processus de génération des modèles mis en oeuvre. Néanmoins, les avancées issues de ce projet sont limitées aux composants mono-puces et à leur comportement thermique en régime permanent. L’objectif de cette thèse est d’avoir une approche multi-échelle de la génération de modèles compacts et leur interaction avec la carte. La modélisation multi-échelle consiste à la génération de modèles mono-puces ou multi-puces et leur réutilisation éventuelle dans des systèmes plus complexes tels que le PCB ou les « System-In-packages »
This thesis is dedicated to the generation of behavioral thermal model for electronic component having multiple active sensitive chips. This innovative study focuses on the necessary improvements of the concept of steady-state and dynamic compact model in order to elaborate pertinent and accurate modeling practical techniques. To help the electronic designer to early identify the overheated electronic components, the purpose is to generate simplified models, capable to mimic the thermal behavior of sophisticated detailed models. These simplified or compact models using well-known thermal resistances network replicate the thermal path from the most sensitive elements to the external package surfaces and enable to accurately predict their temperatures as well as the case heat flow rates. Preliminary evaluations performed on the popular, plastic Quad Flat-pack No lead package family showed that the simplest network definition, restricted to the heating source and two external surfaces, is always insufficient to properly characterize the thermal response of real device. So our development of steady-state compact thermal model (CTM) for electronic component is based on a process flow defined by the European project DELPHI which was revised by the presented work to address multi-chip components. DELPHI style compact thermal model presents an enlarged node number, especially for the component external surfaces which are divided in a set of relevant areas
APA, Harvard, Vancouver, ISO, and other styles
44

Baudon, Olivier. "Cabri-graphes : un cahier de brouillon interactif pour la théorie des graphes." Phd thesis, Université de Grenoble, 1990. http://tel.archives-ouvertes.fr/tel-00648847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Parissis, Ioannis. "Test de logiciels synchrones spécifiés en Lustre." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005010.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des méthodes formelles et des outils pour la spécification, la programmation, la vérification et la validation des logiciels réactifs à l'aide du langage synchrone Lustre. Nous avons étendu l'environnement de développement actuel de ces logiciels en lui adjoignant des outils de validation de spécifications et de test de programmes. Nous proposons une technique de construction automatique d'un simulateur aléatoire de l'environnement externe du logiciel ainsi que d'un simulateur des comportements sûrs de ce dernier. Exécutés conjointement, ces deux simulateurs permettent, par observation, la validation des spécifications de l'environnement et des propriétés de sûreté. La simulation de l'environnement constitue également un moyen de test aléatoire du logiciel. Une variante de cette technique est le test des propriétés de sûreté. Ce type de test favorise l'exécution des comportements de l'environnement du logiciel qui peuvent mettre en évidence avec une plus grande probabilité des violations des propriétés de sûreté. Enfin, nous définissons des critères de couverture pour le test structurel en s'appuyant sur le réseau d'opérateurs associé à un programme Lustre. Les conditions d'exécution des composants du réseau satisfaisant les critères sont calculées automatiquement ce qui permet la génération automatique de données de test ainsi que la mesure du taux de couverture obtenu. Toutes ces techniques sont formellement définies. Une illustration de leur application sur un exemple de logiciel synchrone que nous avons développé à cet effet complète notre étude.
APA, Harvard, Vancouver, ISO, and other styles
46

Azem, Sadia. "Ordonnancement des systemes flexibles de production sous contraintes de disponibilite des ressources." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00611830.

Full text
Abstract:
La majeure partie des travaux sur les problèmes d'ordonnancement se placent dans le contexte où les ressources sont disponibles en permanence. Ce qui en réalité n'est pas toujours le cas. Nous nous plaçons dans le contexte d'indisponibilités connues ; nous nous intéressons plus particulièrement aux problèmes de type job shop avec des périodes d'indisponibilité flexibles et des tâches pouvant éventuellement être interrompues par les périodes d'indisponibilité. L'intégration de ces contraintes rend les problèmes d'ordonnancement nettement plus difficiles à résoudre. La flexibilité que nous considérons peut être relative à au moins l'un des points suivants : déplacement de la période d'indisponibilité dans une fenêtre de temps, modification de la durée de la période d'indisponibilité, interruption d'une tâche par une période d'indisponibilité, ensuite reprise avec une éventuelle pénalité.Dans cette thèse, nous avons proposé des modèles mathématiques pour le problème. En plus de la résolution des problèmes considérés, le but de ces modélisations est de permettre d'analyser l'impact des différentes contraintes et d'évaluer la qualité des méthodes approchées que nous proposons. Ces dernières permettent de construire très rapidement un ordonnancement en se basant sur des règles de priorité. Les solutions sont aussi utilisées pour notre approche basée sur la génération de colonnes. Cette approche s'adapte bien à différents fonctions objectif et permet d'intégrer relativement facilement plusieurs contraintes. De nombreuses expérimentations ont été menées pour valider les méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
47

Chevalier, Fanny. "Reconnaissance de motifs dans des graphes : heuristique et applications." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00286214.

Full text
Abstract:
Cette thèse s'inscrit dans la problématique de la comparaison de graphes. Nous proposons dans la première partie de ce manuscrit plusieurs algorithmes de recherche de motifs similaires dans de grands graphes. La seconde partie de cette thèse traite de l'étude des arborescences de fichiers, structure de données pour laquelle la méthode initiale de reconnaissance de motifs a été développée. Nous présentons un modèle stochastique pour la génération aléatoire de structure arborescentes, basé sur les observations de l'étude statistique des données réelles. Enfin, nous détaillons deux adaptations de l'algorithme de reconnaissance de motifs similaires à des applications particulières. La première concerne la reconnaissance d'objets extraits de la video basse résolution pour l'indexation grossière. La deuxième application a été développée pour la visualisation de l'évolution de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
48

Tarby, Jean-Claude. "Gestion Automatique du Dialogue Homme-Machine à partir de Spécifications Conceptuelles." Phd thesis, Université des Sciences Sociales - Toulouse I, 1993. http://tel.archives-ouvertes.fr/tel-00174589.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine des Interfaces Homme-Machine (IHM). Elle s'articule autour de deux thèmes principaux qui sont la Spécification et la Gestion Automatique du Dialogue Homme-Machine.

Le travail présenté est basé sur la méthode Diane+ conçue initialement pour la spécification du dialogue homme-machine. Diane+ repose sur la planification hiérarchique et intègre le niveau de l'utilisateur. Elle est utilisée pour spécifier la répartition des tâches entre l'homme et la machine tout en laissant une latitude décisionnelle à l'utilisateur. Cette spécification utilise un formalisme simple et concis prenant en compte les répartitions les plus complexes. Ce formalisme permet, à partir des spécifications, de :
• générer l'interface homme-machine en intégrant des règles d'ergonomie générale,
• générer une partie du code des traitements,
• gérer automatiquement la dynamique de l'application (noyau fonctionnel et interface homme-machine),
• gérer automatiquement l'aide d'utilisation, l'aide fonctionnelle étant quant à elle implémentée par le concepteur.
De par les origines de Diane+ et les caractéristiques des IHM, ce travail utilise conjointement le modèle tâche et le modèle objet.
APA, Harvard, Vancouver, ISO, and other styles
49

Lasalle, Jonathan. "Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00762053.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
50

Niang, Boubou Thiam. "A Model-Driven Engineering and Software Product Line Approach to Support Interoperability in Systems of Information Systems." Electronic Thesis or Diss., Lyon 2, 2024. http://www.theses.fr/2024LYO20005.

Full text
Abstract:
Les systèmes d'information modernes requièrent une communication et une coordination sans faille entre leurs composants. Les organisations ont du mal à s'adapter aux changements fréquents lors de leurs engagements avec divers partenaires industriels en raison de la création manuelle et au cas par cas des mécanismes d'interopérabilité. Ces mécanismes doivent être les réutilisables pour éviter des processus chronophages et sujets aux erreurs dans un environnement en constante évolution. Leur manque de réutilisation résulte de leur intégration fréquente dans des composants de logique métier, créant un couplage fort et rendant la maintenance complexe sans altérer le fonctionnement global du système.Berger-Levrault est éditeur de logiciels, fournit principalement les institutions publiques, maintenant activement l'interopérabilité pour s'ajuster aux réformes fréquentes du secteur public local. La croissance par acquisitions d'entreprises entraîne une diversité d'applications héritées, avec des variations dans le langage, l'architecture, et les normes. L'objectif principal est de créer une solution d'interopérabilité adaptable facilitant l'interaction entre les composants du système d'information et les systèmes externes. Les défis incluent l'adaptation aux règles changeantes, la gestion de volumes de données variables, et l'intégration de nouveaux composants dans les institutions publiques.Cette thèse analyse les flux d'échange de données entre composants et systèmes, propose une approche pour implémenter et faire évoluer les mécanismes d'interopérabilité, minimisant l'impact sur les opérations du système d'information. La méthodologie démarre par une vision réifiée des mécanismes d'interopérabilité, extrayant les mécanismes d'échange des constituants de la logique d'entreprise pour les considérer comme des connecteurs d'interopérabilité de première classe. Pour ce faire, on procède par rétro-ingénierie pour extraire les fonctionnalités des mécanismes d'interopérabilité existants et les réifie sous la forme d'un composant tangible, le connecteur, au sein du système d'information. L'analyse, s'appuie sur référentiel créé, comprenant des projets sélectionnés de manière transparente, garantissant un nombre minimal de projets et couvrant tous les modèles d'intégration d'entreprise provenant de différentes sources. Le métamodèle proposé confirme et valide cette réification en termes de complétude et d'extensibilité. La complétude du métamodèle de connecteur est validée par un processus bien défini, tandis qu'un autre processus garantit l'extensibilité du métamodèle. Le métamodèle extensible révèle que les connecteurs sont des entités communes, ce qui conduit à l'approche ConPL, un cadre de ligne de produits logiciels adapté aux connecteurs. L'outil PhaDOP a été utilisé pour mettre en œuvre cette approche, et une preuve de concept a été démontrée avec un cas d'utilisation spécifique. Des tests de performance ont été effectués sur la structure de représentation des connecteurs proposée. Le cadre ConPL est validé par un cas d'utilisation industriel
Modern information systems consist of various components that require seamless communication and coordination. Organizations face difficulties adapting to dynamic changes while engaging with diverse industry partners. The challenge arises from the fact that interoperability mechanisms are often created manually and in an ad hoc manner. These mechanisms must be reusable to avoid time-consuming and error-prone processes in an ever-changing environment. The lack of reusability is because interoperability mechanisms are often integrated into business logic components, which creates a strong coupling between components, making maintenance difficult without affecting the overall operation of the system.Berger-Levrault, our industrial partner, primarily serves public institutions. The company actively maintains interoperability, especially in the context of frequent reforms in the local public sector. In addition, companies have grown through acquisitions, resulting in a diverse range of legacy applications with variations in language, architecture, norms, and industry standards. The primary goal is to create an adaptable interoperability solution that facilitates seamless communication between the components of the information system and the external environment. Challenges include adapting to changing rules and standards, managing variable data volumes, and integrating connected objects within public institutions.This thesis examines data exchange flows between constituents and systems, analyzes their characteristics and requirements, and proposes cost-effective approaches for implementing and evolving interoperability mechanisms while minimizing the impact on overall information system operations. The methodology adopted begins with a reified vision of interoperability mechanisms, where exchange mechanisms are extracted from the business logic constituents and considered first-class constituents called interoperability connectors. To achieve this, reverse engineering extracts functionality from existing interoperability mechanisms and reifies it as a tangible constituent, the connector, within the information system. For the analysis, we create a repository comprising projects selected transparently, guaranteeing a minimal number of projects, and covering all the Enterprise Integration Patterns from different sources. The proposed metamodel confirms and validates this reification regarding completeness and extensibility. The completeness of the connector metamodel is validated through a well-defined process, while another process guarantees the metamodel's extensibility. The extensible metamodel reveals connectors as common entities, leading to the ConPL approach, a software product line framework adapted to connectors. The PhaDOP tool was utilized to implement this approach, and a proof-of-concept was demonstrated with a specific use case. Performance tests were conducted on the proposed connector representation structure. The ConPL framework is validated through an industrial use case
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography