Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Transformation de programme (Informatique).

Thèses sur le sujet « Transformation de programme (Informatique) »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Transformation de programme (Informatique) ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Kunz, César. « Préservation des preuves et transformation de programmes ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00004940.

Texte intégral
Résumé :
Le paradigme du code mobile implique la distribution des applications par les producteurs de code à environnements hétérogènes dans lesquels elles sont exécutées. Une pratique étendue de ce paradigme est constituée par le développement d'applications telles que les applets ou les scripts Web, transferés à travers un réseau non sécurisé comme Internet à des systèmes distants, par exemple un ordinateur, un téléphone mobile ou un PDA (Assistant personnel). Naturellement, cet environnement peux ouvrir la porte au déploiement de programmes malveillants dans des plateformes distantes. Dans certains cas, la mauvaise conduite du code mobile ne constitue pas un risque grave, par exemple lorsque l'intégrité des données affectées par l'exécution n'est pas critique ou lorsque l'architecture d'exécution impose de fortes contraintes sur les capacités d'exécution du code non sécurisé. Il y a toujours, toutefois, des situations dans lesquelles il est indispensable de vérifier la correction fonctionnelle du code avant son exécution, par exemple lorsque la confidentialité de données critiques comme l'information des cartes de crédit pourrait être en danger, ou lorsque l'environnement d'exécution ne possède pas un mécanisme spécial pour surveiller la consommation excessive des ressources. George Necula a proposé une technique pour apporter de la confiance aux consommateurs sur la correction du code sans faire confiance aux producteurs. Cette technique, Proof Carrying Code (PCC), consiste à déploier le code avec une preuve formelle de sa correction. La correction est une propriété inhérente du code reçuu qui ne peut pas être directement déduite du producteur du code. Naturellement, cela donne un avantage à PCC quant-aux méthodes basées sur la confiance à l'autorité d'un tiers. En effet, une signature d'une autorité ne suffit pas à fournir une confiance absolue sur l'exécution du code reçu. Depuis les origines du PCC, le type de mécanisme utilisé pour générer des certificats repose sur des analyses statiques qui font partie du compilateur. Par conséquent, en restant automatique, il est intrinsèquement limité à des propriétés très simples. L'augmentation de l'ensemble des propriétés à considerer est difficile et, dans la plupart des cas, cela exige l'interaction humaine. Une possibilité consiste à vérifier directement le code exécutable. Toutefois, l'absence de structure rend la vérification du code de bas niveau moins naturelle, et donc plus laborieuse. Ceci, combiné avec le fait que la plupart des outils de vérification ciblent le code de haut niveau, rend plus appropriée l'idée de transferer la production de certificats au niveau du code source. Le principal inconvénient de produire des certificats pour assurer l'exactitude du code source est que les preuves ne comportent pas la correction du code compilé. Plusieurs techniques peuvent etre proposées pour transférer la preuve de correction d'un programme à sa version exécutable. Cela implique, par exemple, de déployer le programme source et ses certificats originaux (en plus du code exécutable) et de certifier la correction du processus de compilation. Toutefois, cette approche n'est pas satisfaisante, car en plus d'exiger la disponibilité du code source, la longueur du certificat garantissant la correction du compilation peut être prohibitive. Une alternative plus viable consiste à proposer un mécanisme permettant de générer des certificats de code compilé à partir des certificats du programme source. Les compilateurs sont des procédures complexes composées de plusieurs étapes, parmi lesquelles le programme original est progressivement transformé en représentations intermédiaires. Barthe et al. et Pavlova ont montré que les certificats originaux sont conservés, à quelques différences près non significatives, par la première phase de compilation: la compilation non optimale du code source vers une représentation non structurée de niveau intermédiaire. Toutefois, les optimisations des compilateurs sur les représentations intermédiaires représentent un défi, car a priori les certificats ne peuvent pas être réutilisés. Dans cette thèse, nous analysons comment les optimisations affectent la validité des certificats et nous proposons un mécanisme, Certificate Translation, qui rend possible la génération des certificats pour le code mobile exécutable à partir des certificats au niveau du code source. Cela implique transformer les certificats pour surmonter les effets des optimisations de programme.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Alexandre, Francis. « Transformation de programmes logiques ». Nancy 1, 1991. http://www.theses.fr/1991NAN10429.

Texte intégral
Résumé :
La transformation de programmes est reconnue comme un moyen puissant de construire des programmes corrects et efficaces. La démarche générale consiste à appliquer pas à pas des transformations en vue d'obtenir un programme plus efficace. Dans ce cadre, le point de départ est une spécification écrite en clauses de horn (programme défini), les transformations de base sont le dépliage, le pliage et l'introduction de nouveaux prédicats. Les compositions des transformations de base sont appelées des tactiques. L'invention de tactiques produisant des programmes plus efficaces est étudiée. Ces tactiques sont basées sur une analyse statique des programmes, on considère des schémas de programmes. Les tactiques présentées font appel à la généralisation et peuvent être automatisées. Une transformation de programme défini en système de réécriture est définie. Les programmes transformes sont caractérises par des modes entrée-sortie. La correction de la transformation est prouvée. L'approche de ce travail est aussi expérimentale puisqu'un système de transformation appelé SPES a été développé
Styles APA, Harvard, Vancouver, ISO, etc.
3

Grenier, Christophe. « Transformation de programme et protection de la propriété intellectuelle - préparation, intégration et vérification ». Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00915579.

Texte intégral
Résumé :
Dans le domaine de la Défense, les contrats export s'accompagnent souvent de transferts de technologie. Un compromis est donc nécessaire entre la protection de la propriété industrielle, celle du secret national et les demandes client. Nous étudierons dans ce contexte et au sein de DCNS les transformations de sécurisation de programme, principalement l'obfuscation et le watermarking. Nous présenterons ces transformations et les principaux résultats théoriques qui les concernent, ainsi que leur adéquation au besoin de sécurité. Nous étudierons la formalisation et la mise en oeuvre des principales techniques connues de transformations. Celles-ci ont pour objectif de rendre diffcile la rétro-ingénierie tout en préservant les fonctionnalités et les performances des systèmes. Nous aborderons les grandes familles existantes et leur implémentation à travers le bytecode Java. Ensuite, nous étudierons l'intégration de ces techniques dans le cycle de développement d'un logiciel complexe. Un premier focus sera effectué sur la mise en oeuvre de certaines techniques de transformation où leurs limites seront exhibées et des pistes d'amélioration proposées. Nous présenterons l'outillage réalisé pour cette analyse et les perspectives d'utilisation envisagées. Enfin, nous présenterons les mécanismes déployés en amont de la transformation permettant d'intégrer au plus tôt la gestion des contraintes et en aval pour vérifier que les techniques utilisées sont conformes à celles demandées afin de renforcer la confiance dans les transformations effectuées.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Dai, Min. « Transformation et optimisation des programmes pour le parallélisme d'instructions ». Versailles-St Quentin en Yvelines, 2000. http://www.theses.fr/2000VERS002V.

Texte intégral
Résumé :
Nous commencerons d'abord par l'introduction des techniques de transformation et d'optimisation a haut niveau au chapitre 2. La présentation des architectures auxquelles nous nous intéressons, les processeurs super scalaires et vliw, est présentée dans le chapitre 3. Après avoir aborde les principales machines, nous présentons la méthode de la simulation des unités fonctionnelles qui est voisine des tables de réservation réduites. Dans le quatrième chapitre, nous introduisons les techniques existantes d'extraction de dépendances de données pour qu'elles puissent être utilisées dans les phases de transformation et d'optimisation. Le chapitre suivant résumera les différentes méthodes de la transformation de code source. Nous avons utilisé sage++ comme base de travail pour réaliser les transformations, les parallelisations et les optimisations de code source (tops) dai99. Sage++ fournit une abstraction du programme source, qui facilite la manipulation de code source. Le chapitre 6 détaillera les techniques d'élimination de code redondant en intégrant le pipeline logiciel afin de minimiser les opérations de chargement et déchargement dans la boucle pipelinée. Dans le chapitre 7, nous donnons les résultats expérimentaux des performances qui intègrent différentes transformations et les méthodes d'optimisation que nous avons développées. .
Nous commencerons d'abord par l'introduction des techniques de transformation et d'optimisation a haut niveau au chapitre 2. La presentation des architectures auxquelles nous nous interessons, les processeurs superscalaires et vliw, est presentee dans le chapitre 3. Apres avoir aborde les principales machines, nous presentons la methode de la simulation des unites fonctionnelles qui est voisine des tables de reservation reduites. Dans le quatrieme chapitre, nous introduisons les techniques existantes d'extraction de dependances de donnees pour qu'elles puissent etre utilisees dans les phases de transformation et d'optimisation. Le chapitre suivant resumera les differentes methodes de la transformation de code source. Nous avons utilise sage++ comme base de travail pour realiser les transformations, les parallelisations et les optimisations de code source (tops) dai99. Sage++ fournit une abstraction du programme source, qui facilite la manipulation de code source. Le chapitre 6 detaillera les techniques d'elimination de code redondant en integrant le pipeline logiciel afin de minimiser les operations de chargement et dechargement dans la boucle pipelinee. Dans le chapitre 7, nous donnons les resultats experimentaux des performances qui integrent differentes transformations et les methodes d'optimisation que nous avons developpees. Finalement, le dernier chapitre est destine a donner quelques details d'implantation et de comparaison avec les travaux existants
Styles APA, Harvard, Vancouver, ISO, etc.
5

Neron, Pierre. « Transformation de Programmes pour des Nombres Réels Fiables ». Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00960808.

Texte intégral
Résumé :
Cette thèse présente un algorithme qui élimine les racines carrées et les divisions dans des programmes sans boucles, utilisés dans des systèmes embarqués, tout en préservant la sémantique. L'élimination de ces opérations permet d'éviter les erreurs d'arrondis à l'exécution, ces erreurs d'arrondis pouvant entraîner un comportement complètement inattendu de la part du programme. Cette trans- formation respecte les contraintes du code embarqué, en particulier la nécessité pour le programme produit de s'exécuter en mémoire fixe. Cette transformation utilise deux algorithmes fondamentaux développés dans cette thèse. Le premier permet d'éliminer les racines carrées et les divisions des expressions booléennes contenant des comparaisons d'expressions arithmétiques. Le second est un algorithme qui résout un problème d'anti-unification particulier, que nous appelons anti-unification contrainte. Cette transformation de programme est définie et prouvée dans l'assistant de preuves PVS. Elle est aussi implantée comme une stratégie de ce système. L'anti-unification contrainte est aussi utilisée pour étendre la transformation à des programmes contenant des fonctions. Elle permet ainsi d'éliminer les racines carrées et les divisions de spécifications écrites en PVS. La robustesse de cette méthode est mise en valeur par un exemple conséquent: l'élimination des racines carrées et des divisions dans un programme de détection des conflits aériens.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Cohen, Albert Henri. « Analyse et transformation de programmes : du modèle polyédrique aux langages formels ». Versailles-St Quentin en Yvelines, 1999. https://tel.archives-ouvertes.fr/tel-00550829.

Texte intégral
Résumé :
Les microprocesseurs et les architectures parallèles d'aujourd'hui lancent de nouveaux défis aux techniques de compilation. En présence de parallélisme, les optimisations deviennent trop spécifiques et complexes pour être laissées au soin du programmeur. Les techniques de parallélisation automatique dépassent le cadre traditionnel des applications numériques et abordent de nouveaux modèles de programmes, tels que les nids de boucles non affines, les appels récursifs et les structures de données dynamiques. Des analyses précises sont au coeur de la détection du parallélisme, elles rassemblent des informations à la compilation sur les propriétés des programmes à l'exécution. Ces informations valident des transformations utiles pour l'extraction du parallélisme et la génération de code parallèle. Cette thèse aborde principalement des analyses et des transformations avec une vision par instances, c'est-à-dire considérant les propriétés individuelles de chaque instance d'une instruction à l'exécution. Une nouvelle formalisation à l'aide de langages formels nous permet tout d'abord d'étudier une analyse de dépendances et de définitions visibles par instances pour programmes récursifs. L'application de cette analyse à l'expansion et la parallélisation de programmes récursifs dévoile des résultats encourageants. Les nids de boucles quelconques font l'objet de la deuxième partie de ce travail. Une nouvelle étude des techniques de parallélisation fondées sur l'expansion nous permet de proposer des solutions à des problèmes d'optimisation cruciaux.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Amini, Mehdi. « Transformations de programme automatiques et source-à-source pour accélérateurs matériels de type GPU ». Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00958033.

Texte intégral
Résumé :
Depuis le début des années 2000, la performance brute des cœurs des processeurs a cessé son augmentation exponentielle. Les circuits graphiques (GPUs) modernes ont été conçus comme des circuits composés d'une véritable grille de plusieurs centaines voir milliers d'unités de calcul. Leur capacité de calcul les a amenés à être rapidement détournés de leur fonction première d'affichage pour être exploités comme accélérateurs de calculs généralistes. Toutefois programmer un GPU efficacement en dehors du rendu de scènes 3D reste un défi.La jungle qui règne dans l'écosystème du matériel se reflète dans le monde du logiciel, avec de plus en plus de modèles de programmation, langages, ou API, sans laisser émerger de solution universelle.Cette thèse propose une solution de compilation pour répondre partiellement aux trois "P" propriétés : Performance, Portabilité, et Programmabilité. Le but est de transformer automatiquement un programme séquentiel en un programme équivalent accéléré à l'aide d'un GPU. Un prototype, Par4All, est implémenté et validé par de nombreuses expériences. La programmabilité et la portabilité sont assurées par définition, et si la performance n'est pas toujours au niveau de ce qu'obtiendrait un développeur expert, elle reste excellente sur une large gamme de noyaux et d'applications.Une étude des architectures des GPUs et les tendances dans la conception des langages et cadres de programmation est présentée. Le placement des données entre l'hôte et l'accélérateur est réalisé sans impliquer le développeur. Un algorithme d'optimisation des communications est proposé pour envoyer les données sur le GPU dès que possible et les y conserver aussi longtemps qu'elle ne sont pas requises sur l'hôte. Des techniques de transformations de boucles pour la génération de code noyau sont utilisées, et même certaines connues et éprouvées doivent être adaptées aux contraintes posées par les GPUs. Elles sont assemblées de manière cohérente, et ordonnancées dans le flot d'un compilateur interprocédural. Des travaux préliminaires sont présentés au sujet de l'extension de l'approche pour cibler de multiples GPUs.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Balland, Emilie Kirchner Claude Moreau Pierre-Etienne. « Conception d'un langage dédié à l'analyse et la transformation de programmes ». S. l. : Nancy 1, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0026_BALLAND.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ioualalen, Arnault. « Transformation de programmes synchrones pour l’optimisation de la précision numérique ». Perpignan, 2012. http://www.theses.fr/2012PERP1108.

Texte intégral
Résumé :
La certification de programmes embarqués dans des systèmes critiques est, aujourd'hui encore, un enjeu majeur pour l'industrie et un défi pour la recherche. En outre, la précision numérique de programmes utilisant l'arithmétique des nombres à virgule flottante a fait l'objet de nombreux travaux et outils. À ce jour, il est possible de déterminer statiquement des sur-approximations fiables des erreurs d'arrondi pouvant apparaître lors des exécutions possibles d'un programme. Néanmoins, ces techniques n'indiquent pas comment corriger ou réduire ces erreurs. Ce travail de thèse présente une méthode automatique de transformation de programmes synchrones permettant de réduire la part des erreurs d'arrondi générées durant leurs exécutions. Pour cela nous utilisons une nouvelle représentation intermédiaire de programmes, appelée APEG, qui constitue une sous-approximation de l'ensemble des programmes mathématiquement équivalents à celui que l'on souhaite optimiser. Cette représentation permet de synthétiser, en temps polynomial, une version plus précise numériquement d'un programme, tout en lui étant mathématiquement équivalent. De plus, nous présentons de nombreux résultats expérimentaux obtenus à l'aide de l'outil que nous avons développé, Sardana, et qui implante toutes les contributions de ce travail
The certification of programs embedded in critical systems is still a challenge for both the industry and the research communities. The numerical accuracy of programs using the floating-point arithmetics is one aspect of this issue which has been addressed by manytechniques and tools. Nowadays we can statically infer a sound over-approximation of the rounding errors introduced by all the possible executions of a program. However, these techniques do not indicate how to correct or even how to reduce these errors. This work presents a new automatic technique to transform a synchronous program in order to reduce the rounding errors arising during its execution. We introduce a new intermediate representation of programs, called APEG, which is an under-approximation of the set of all the programs that are mathematically equivalent to the original one. This representation allows us to synthesize, in polynomial time, a program with a better numerical accuracy, while being mathematically equivalent to the original one. In addition, we present many experimental results obtained with the tool we have developed, Sardana, and which implements all of our contributions
Styles APA, Harvard, Vancouver, ISO, etc.
10

Jouvelot, Pierre. « Parallelisation semantique : une approche denotationnelle non-standard pour la parallelisation de programmes imperatifs sequentiels ». Paris 6, 1986. http://www.theses.fr/1986PA066559.

Texte intégral
Résumé :
Notre principe consiste a voir les transformations de programmes introduites par la parllelisation comme definissant des semantiques denotationnelles non-standards du langage de programmation. Nous montrons comment utiliser ce concept pour detecter, dans un langage imperatif simplifie all, des instructions complexes parallelisables, reconnaitre des reductions et prendre en compte certains programmes avec indirections
Styles APA, Harvard, Vancouver, ISO, etc.
11

Koukam, Abder. « Dérivation de programmes Ada par transformation de systèmes parallèles fondés sur la communication abstraite entre processus ». Nancy 1, 1990. http://www.theses.fr/1990NAN10481.

Texte intégral
Résumé :
Le travail présenté dans cette thèse s'inscrit dans le cadre d'une démarche méthodique pour la construction de systèmes parallèles. L'idée de base est de définir de tels systèmes comme un ensemble d'entités manipulant des suites de données, entre lesquelles des relations dites de communication sont spécifiées. Pour concevoir les solutions déduites de cette démarche, un langage d'expression de systèmes parallèles est proposé. Ce langage est caractérisé par : une expression abstraite des relations de communication en termes de types abstraits algébriques appelés types de communication. Une conception modulaire fondée sur la séparation de la description des communications de l'écriture de processus. Notre premier objectif est d'élaborer une démarche pour automatiser la transformation des types ce communication en programmes Ada. Mais la distance est grande entre cette expression abstraite et statique de la communication et le programme final dynamique et efficace. Aussi avons-nous été conduit à décomposer le processus de transformation en plusieurs étapes fondées sur des règles de transformation. Deux classes de règles sont ainsi mise en évidence : les règles
Styles APA, Harvard, Vancouver, ISO, etc.
12

Balland, Emilie. « Conception d'un langage dédié à l'analyse et la transformation de programmes ». Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00435881.

Texte intégral
Résumé :
Développer des analyseurs statiques nécessite une manipulation intensive de structures d'arbres et de graphes représentant le programme. La finalité de cette thèse est de proposer des constructions de langage dédiées au prototypage d'outils d'analyse et de transformation de programmes et inspirées de la réécriture de termes et de termes-graphes. L'originalité de notre approche est d'embarquer ces nouvelles constructions dans les langages généralistes sous la forme d'un langage dédié embarqué. Les travaux de cette thèse se fondent sur le langage Tom qui propose d'embarquer des constructions de réécriture dans des langages généralistes comme Java. La première contribution de cette thèse a été de formaliser les langages embarqués sous le concept de langage îlot. Ce formalisme a ainsi permis de certifier la compilation du langage Tom. Nos travaux sur l'analyse de Bytecode nous ont ensuite conduit à réfléchir à la représentation et la manipulation de graphes de flot de programmes et nous avons alors proposé des constructions de langage inspirées de la réécriture de termes-graphes. Une autre contribution de cette thèse est la conception d'un langage de stratégies adapté à l'expression de propriétés sur un programme. Associé au filtrage, ce langage permet d'exprimer de manière déclarative des analyses et des transformations sur des arbres ou des graphes. Enfin, l'ensemble des propositions de cette thèse a été intégré au langage Tom sous la forme de nouvelles constructions syntaxiques ou d'améliorations de constructions existantes et a ainsi pu être appliqué à l'analyse du langage Java.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Neron, Pierre. « A Quest for Exactness : Program Transformation for Reliable Real Numbers ». Phd thesis, Ecole Polytechnique X, 2013. http://tel.archives-ouvertes.fr/tel-00924379.

Texte intégral
Résumé :
Cette thèse présente un algorithme qui élimine les racines carrées et les divi- sions dans des programmes sans boucles, utilisés dans des systèmes embarqués, tout en préservant la sémantique. L'élimination de ces opérations permet d'éviter les erreurs d'arrondis à l'exécution, ces erreurs d'arrondis pouvant entraîner un comportement complètement inattendu de la part du programme. Cette trans- formation respecte les contraintes du code embarqué, en particulier la nécessité pour le programme produit de s'exécuter en mémoire fixe. Cette transformation utilise deux algorithmes fondamentaux développés dans cette thèse. Le premier permet d'éliminer les racines carrées et les divisions des expressions booléennes contenant des comparaisons d'expressions arithmétiques. Le second est un algo- rithme qui résout un problème d'anti-unification particulier, que nous appelons anti-unification contrainte. Cette transformation de programme est définie et prou- vée dans l'assistant de preuves PVS. Elle est aussi implantée comme une stratégie de ce système. L'anti-unification contrainte est aussi utilisée pour étendre la transformation à des programmes contenant des fonctions. Elle permet ainsi d'éliminer les racines carrées et les divisions de spécifications écrites en PVS. La robustesse de cette méthode est mise en valeur par un exemple conséquent: l'élimination des racines carrées et des divisions dans un programme de détection des conflits aériens.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Fradet, Pascal. « Approches langages pour la conception et la mise en oeuvre de programmes ». Habilitation à diriger des recherches, [S.l.] : [s.n.], 2000. ftp://ftp.irisa.fr/techreports/habilitations/fradet.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Machado, Javam de Castro. « Parallélisme et transactions dans les bases de données à objets ». Université Joseph Fourier (Grenoble), 1995. https://tel.archives-ouvertes.fr/tel-00005039.

Texte intégral
Résumé :
Notre travail cherche à exploiter le parallélisme dans le contexte des systèmes de gestion de bases de données a objets a d'autres niveaux d'abstraction que celui d'une requête SQL, à savoir le parallélisme intra-transaction et le parallélisme intra-application. Notre approche pour parallélisassions des transactions considère un modèle de transactions classiques, ou une transaction est une séquence d’Operations. Le parallélisme intra-transaction consiste à transformer le code d'une transaction pour pouvoir exécuter ses opérations en parallèle. Notre approche pour l'exploitation du parallélisme intra-application étend tout d'abord le modèle de parallélisme intra-transaction de manière à considérer la transaction comme unité de parallélisassions. Deuxièmement nous avons considère l'exploitation du parallélisme intra-application dans un contexte ou le modèle de transaction fournit des transactions emboitées. Nous avons développé un modèle de parallélisassions des applications où nous associons le parallélisme offert par le modèle des transactions emboitées avec le parallélisme par transformation de notre approche de parallélisation des transactions
Nous avons implanté un premier prototype qui met en œuvre le modèle de parallélisation des transactions. Pour cela, nous avons utilisé le système de bases de données à objet 02. Notre prototype introduit le parallélisme par la création et la synchronisation des activités parallèles au sein du processus client 02 qui exécute une application. Le système étant développé sur une machine monoprocesseur, les fonctions liées au parallélisme utilisent de processus légers. Nous avons applique ensuite notre modèle de parallélisations au système de règles NAOS. Notre approche considère l'ensemble de règles d'un cycle d'exécution, dites règles candidates, pour la parallélisation. Nous construisons un plan d'exécution pour les règles candidates d'un cycle qui détermine l'exécution séquentielle ou parallèle pour les règles
Styles APA, Harvard, Vancouver, ISO, etc.
16

Tardieu, Olivier. « De la sémantique opérationnelle à la spécification formelle de compilateurs : l'exemple des boucles en Esterel ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001336.

Texte intégral
Résumé :
Esterel est un langage impératif concurrent pour la programmation des systèmes réactifs. A l'exception de l'instruction "pause", les primitives du langage s'exécutent sans consommer de temps logique. L'exécution se décompose donc en une suite d'instants. Dans ce contexte, les boucles peuvent poser deux types de problèmes: d'une part une boucle instantanée peut bloquer l'écoulement du temps; d'autre part un bloc de code peut être traversé plusieurs fois au cours du même instant, conduisant à un comportement du programme dit "schizophrène". Les boucles instantanées sont proscrites par la sémantique. Elles doivent donc être détectées par les compilateurs et les programmes correspondants doivent être rejetés. Par ailleurs, la compilation efficace des programmes schizophrènes est difficile. Ainsi, alors que plusieurs compilateurs pour Esterel sont disponibles, les algorithmes employés pour compiler les boucles ne sont ni portables, ni formellement spécifiés, et encore moins prouvés. Dans ce document, nous étudions les boucles en Esterel, établissant une correspondance formelle entre la sémantique opérationnelle du langage et l'implémentation concrète d'un compilateur. Après avoir spécifié les problèmes posés par les boucles, nous développons des techniques d'analyse statique efficaces pour les détecter dans un code Esterel quelconque. Puis, de façon à guérir la schizophrénie, c'est à dire transformer efficacement les programmes schizophrènes en programmes non schizophrènes, nous introduisons dans le langage une nouvelle primitive appelée "gotopause". Elle permet de transférer le contrôle d'un point du programme à un autre de façon non instantanée, mais sans contrainte de localité. Elle préserve le modèle de concurrence synchrone d'Esterel. Nous décrivons un premier algorithme qui, en dépliant les boucles à l'aide de cette nouvelle instruction, produit pour tout programme Esterel correct un programme non schizophrène équivalent. Enfin, en combinant analyse statique et réécriture, nous obtenons un préprocesseur qui rejette les boucles instantanées et guérit la schizophrénie, à la fois portable et très efficace. Nous l'avons implémenté. De plus, grâce à une approche formelle de bout en bout, nous avons pu prouver la correction de ce préprocesseur.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Ajouli, Akram. « Vues et transformations de programmes pour la modularité des évolutions ». Phd thesis, Ecole des Mines de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-00866997.

Texte intégral
Résumé :
La maintenance consomme une grande partie du coût de développement des logiciels ce qui rend l'optimisation de ce coût parmi les enjeux importants dans le monde du génie logiciel. Dans cette thèse nous visons à optimiser ce coût par rendre ces maintenances modulaires. Pour atteindre cet objectif, nous définissons des transformations des architectures des programmes qui permettent de transformer le programme à maintenir vers une architecture qui facilite la tâche de maintenance voulue. Nous nous concentrons plus sur la transformation entre les architectures à propriétés de modularité duales tels que les patrons de conception Composite et Visiteur. Dans ce contexte, nous définissons une transformation automatique et réversible basée sur le refactoring entre un programme structuré selon le Composite et sa structureVisiteur correspondante. Cette transformation est validée par la génération d'une précondition qui garantit statiquement sa réussite. Elle est aussi adaptée afin qu'elle prenne en compte la transformation de quatre variations du patron Composite et est validée sur le programme JHotDraw qui comporte ces quatre variations. Nous définissons aussi une transformation réversible au sein du patron Singleton afin de pouvoir bénéficier de l'optimisation par l'introduction de ce patron et la souplesse par sa suppression selon les exigences de l'utilisateur du logiciel.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Garchery, Quentin. « Certification de la transformation de tâches de preuve ». Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG006.

Texte intégral
Résumé :
De nombreux prouveurs et outils de vérification font un usage instensif des transformations logiques afin de ramener un problème exprimé sous la forme d'une tâche de preuve à un certain nombre de tâches de preuve plus simples à valider. Les transformations font souvent partie de la base de confiance de l'outil de vérification. Cette thèse a pour objectif de renforcer la confiance accordée aux transformations logiques. Les transformations sont instrumentées pour produire des certificats puis ceux-ci sont vérifiés par un outil externe: c'est l'approche sceptique. De ce fait, notre méthode est incrémentale et robuste aux modifications apportées au code des transformations. Nous définissons deux formats de certificats; les transformations génèrent des certificats de surface et ces certificats sont traduits en des certificats de noyau qui sont destinés à la vérification finale. L'accent est mis sur la facilité de production des certificats de surface et nous avons fait en sorte qu'ils soient, autant que possible, indépendants des tâches de preuve, facilitant ainsi leur composition et rendant la certification plus modulaire. Les certificats de noyau, au contraire, incluent de nombreux détails tout en restant élémentaires, de sorte que leur vérification est réalisable par un outil simple, dont la confiance est facile à établir. Nous proposons une procédure de traduction d'un certificat de surface en un certificat de noyau qui n'a pas besoin d'être certifiée. Les transformations logiques sont considérées dans une logique d'ordre supérieur avec polymorphisme de type, ce formalisme pouvant être étendu avec des théories interprétées telles que l'égalité ou l'arithmétique entière. Nous appliquons notre méthode à Why3, et notamment à des transformations complexes qui pré-existent à notre travail. Nous implémentons également deux vérificateurs de certificats, le premier reposant sur une approche calculatoire efficace et l'autre s'appuyant sur un encodage superficiel des tâches de preuve dans le framework logique Lambdapi, donnant ainsi de fortes garanties de sa correction
In various provers and deductive verification tools, logical transformations are used extensively in order to reduce a proof task into a number of simpler tasks. Logical transformations are often part of the trusted base of such tools. In this thesis, we develop a framework to improve confidence in their results. We follow a skeptical} approach: transformations are instrumented to produce certificates that are checked by a third-party tool. Thus, we benefit from a modular approach that is also robust to changes in the source code of the transformations. We design two kinds of certificates. Transformations produce surface certificates} that are then translated to kernel certificates} which are destined for final verification. We made sure that surface certificates are easy to produce. Moreover, surface certificates are as independent of the transformation application as possible and this makes for a modular certification. On the contrary, kernel certificates include numerous details about the transformation application and are kept elementary. This helps to define simpler checkers and establish their correctness. We propose a translation procedure from surface certificates to kernel certificates which does not need to be trusted. Logical transformations are considered in a higher-order logic, with type polymorphism and built-in theories such as equality and integer arithmetic. We apply our framework to Why3 and use it to instrument pre-existing and complex transformations. Additionally, we implement two certificate checkers. The first one follows an efficient computational approach while the second is based on a shallow embedding of proof tasks inside the logical framework Lambdapi, thus exhibiting formal guaranties of its correctness
Styles APA, Harvard, Vancouver, ISO, etc.
19

Saint-James, Emmanuel. « De la meta-recursivite comme outil d'implementation ». Paris 6, 1987. http://www.theses.fr/1987PA066612.

Texte intégral
Résumé :
Il est montre comment il est possible et pourquoi il est souhaitable d'implementer un langage de programmation exclusivement par autointerpretation. En effet, il est montre qu'un sous ensemble d'un langage de programmation peut etre considere comme sa propre machine virtuelle, et que l'acces interactif au code source du systeme donne au langage une clarte et une puissance d'expression inegalees. Cette technique, nommee metarecursivite, a ete utilisee pour mettre en oeuvre le systeme meta lisp, operationnel sur plusieurs machines
Styles APA, Harvard, Vancouver, ISO, etc.
20

Lermusiaux, Pierre. « Analyse statique de transformations pour l’élimination de motifs ». Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0372.

Texte intégral
Résumé :
La transformation de programmes est une pratique très courante dans le domaine des sciences informatiques. De la compilation à la génération de tests en passant par de nombreuses approches d'analyse de codes et de vérification formelle des programmes, c'est un procédé qui est à la fois omniprésent et crucial au bon fonctionnement des programmes et systèmes informatiques. Cette thèse propose une étude formelle des procédures de transformation de programmes dans le but d'exprimer et de garantir des propriétés syntaxiques sur le comportement et les résultats d'une telle transformation. Dans le contexte de la vérification formelle des programmes, il est en effet souvent nécessaire de pouvoir caractériser la forme des termes obtenus par réduction suivant une telle transformation. En s'inspirant du modèle de passes de compilation, qui décrivent un séquençage de la compilation d'un programme en étapes de transformation minimales n'affectant qu'un petit nombre des constructions du langage, on introduit, dans cette thèse, un formalisme basé sur les notions de filtrage par motif et de réécriture permettant de décrire certaines propriétés couramment induites par ce type de transformations. Le formalisme proposé se repose sur un système d'annotations des symboles de fonction décrivant une spécification du comportement attendu des fonctions associées. On présente alors une méthode d'analyse statique permettant de vérifier que les transformations étudiées, exprimées par un système de réécriture, satisfont en effet ces spécifications
Program transformation is an extremely common practice in computer science. From compilation to tests generation, through many approaches of code analysis and formal verification of programs, it is a process that is both ubiquitous and critical to properly functionning programs and information systems. This thesis proposes to study the program transformations mechanisms in order to express and verify syntactical guarantees on the behaviour of these transformations and on their results.Giving a characterisation of the shape of terms returned by such a transformation is, indeed, a common approach to the formal verification of programs. In order to express some properties often used by this type of approaches, we propose in this thesis a formalism inspired by the model of compilation passes, that are used to describe the general compilation of a program as a sequence of minimal transformations, and based on the notions of pattern matching and term rewriting.This formalism relies on an annotation mechanism of function symbols in order to express a set of specfications describing the behaviours of the associated functions. We then propose a static analysis method in order to check that a transformation, expressed as a term rewrite system, actually verifiesits specifications
Styles APA, Harvard, Vancouver, ISO, etc.
21

Hufflen, Jean-Michel. « Fonctions et généricité dans un langage de programmation parallèle ». Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00335698.

Texte intégral
Résumé :
Fp2 (functional parallel programming) est un langage qui concilie programmation fonctionnelle et programmation parallèle a travers le formalisme des spécifications algébriques et des systèmes de réécriture. Dans le cadre du projet fp2, cette thèse a pour principal objectif de présenter la partie fonctionnelle, incluant la généricité et le traitement des exceptions. La généricité (paramétrisation d'une spécification) est traitée dans la première partie: nous rappelons les principes, étudions la sémantique, formalisons la compilation des opérateurs génériques en restant dans un cadre fonctionnel, et analysons les raccourcis de notation offerts aux utilisateurs. La deuxième partie est consacrée aux exceptions. Elles sont d'abord étudiées d'un point de vue opérationnel, puis nous en donnons une définition précise qui permet de ramener une présentation avec exceptions a une présentation avec sortes ordonnées. Cette définition assure l'existence d'une algèbre initiale et permet en outre de traiter les exceptions avec paramètres génériques. En troisième partie, sont présentées des méthodes de transformation de définitions fonctionnelles récursives en processus parallèles communicants. La généricité est utilisée pour formuler les hypothèses sur les définitions fonctionnelles, et nous montrons de plus comment simuler une pile de récursivité de profondeur arbitraire par des réseaux de processus dont la topologie est fixée statiquement
Styles APA, Harvard, Vancouver, ISO, etc.
22

Kessaci, Kamel. « Synthèse de circuits digitaux synchrones par transformations de programmes fonctionnels ». Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0007.

Texte intégral
Résumé :
Avec la complexité croissante des circuits VLSI, la recherche de méthodes formelles de conception de circuits devient nécessaire pour atteindre l'objectif de circuits zéro-défaut dans les délais escomptés. Dans le cadre des circuits digitaux synchrones, nous proposons une méthodologie de conception de circuits descendante par transformations de programmes. La transformation de programmes consiste à dériver une réalisation à partir de sa spécification comportementale de haut niveau. La synthèse de circuits par transformations de programmes qualifie ce processus de réalisation. Pour cela, nous avons choisi deux langages: l'un pour spécifier le comportement d'un circuit et l'autre pour décrire sa réalisation. Ces deux langages sont des sous-langages du langage purement fonctionnel Miranda. Un circuit digital est spécifié à un niveau comportemental pur. Chaque transformation produit une nouvelle description, équivalente à celle de départ. A une certaine étape des transformations, la forme de la spécification prend un sens en terme de circuit. Cette forme est obtenue par application de transformations particulières que sont le schéma d'introduction de flots ou le théorème de réalisation. Les transformations suivantes ont pour but d'optimiser le circuit. Une réalisation de circuit ainsi obtenue est correcte par construction. Une preuve a posteriori n'est donc pas nécessaire. La première partie de cette thèse présente une étude bibliographique des recherches qui ont été effectuées dans le domaine de la conception de circuits digitaux zéro défaut. La seconde partie propose une méthodologie de conception de circuits digitaux synchrones, un langage de description de circuits, des schémas de transformations et une stratégie de leur application. Enfin un ensemble d'exemples de synthèse de circuits est donné.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Layaïda, Nabil. « Représentation et analyses de contenu et de programmes Web ». Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00872752.

Texte intégral
Résumé :
Aujourd'hui, les contenus et les applications Web sont devenus la principale interface pour effectuer toutes sortes de tâches de la vie quotidienne comme déclarer et payer les impôts, réserver des billets d'avion ou de train, planifier des vacances, effectuer des achats, gérer les comptes bancaires, etc. En conséquence, il devient de plus en plus important d'étudier leurs fondements, d'améliorer leurs capacités, de faciliter leur conception, de vérifier leur fonctionnement, de les optimiser automatiquement et les rendre plus souples et adaptables aux usages et aux différentes plateformes. Dans ce document, nous décrivons d'abord mes activités professionnelles, concernant les années 1998 à 2012. La première partie de ce document contient un résumé de mes activités de recherche, d'encadrement, d'enseignement et charges administrative et collective, ainsi qu'un résumé de mes principaux résultats scientifiques. Dans le reste du document, nous introduisons une logique de raisonnement sur les arbres finis, une procédure de décision correcte et complète pour vérifier la satisfaisabilité d'une formule de la logique ainsi que d'une mise en œuvre efficace en pratique. La logique est une variante du mu-calcul adaptée aux arbres finis et équipée avec des modalités arrières et des nominaux. Ensuite, nous considérons le problème de l'évolution des schémas XML. Dans le contexte en constante évolution du Web, les schémas XML changent continuellement afin de faire face à l'évolution naturelle des entités qu'ils décrivent. Les modifications de schémas peuvent avoir des conséquences importantes dans la mesure où les documents existants peuvent devenir invalides et la programmes les manipulant incorrectes. Nous proposons un cadre unificateur pour déterminer les effets de l'évolution des schémas XML à la fois sur la validité des documents et des requêtes contenues dans ces programmes. Dans la dernière partie du document, nous considérons une algèbre de type équipée de la récursivité, du produit cartésien, des fonctions, de l'intersection, de l'union, et du complément ainsi que des variables de type et une quantification universelle implicite sur ces variables. Nous considérons la relation de sous-typage récemment définie par Castagna et Xu sur des expressions de cette algèbre de type et montrons que le sous-typage peut être décidé avec une complexité EXPTIME et implémenté efficacement en pratique clôturant ainsi à une question ouverte dans la littérature.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Galinec, David. « Exécution asynchrone de programmes synchrones par transformations automatiques : application au traitement d'images temps-réel ». Lille 1, 1997. http://www.theses.fr/1997LIL10054.

Texte intégral
Résumé :
Le travail réalisé dans le cadre de cette thèse porte sur la transformation automatique de programmes synchrones en vue de leur implémentation asynchrone sur les architectures hétérogènes distribuées. Dans un contexte applicatif nous nous sommes plus particulièrement intéressés aux systèmes de traitements temps-réel de l'image. La démarche que nous avons suivie se base sur une phase préliminaire de conception et validation des systèmes temps-réel sous l'hypothèse de synchronisme. En pratique, nous avons utilisé un outil existant : le langage signal. Nous avons développé un ensemble de processus de transformation permettant d'automatiser l'implémentation de ces systèmes sous la forme de processus séquentiels communicants. Les caractéristiques de ce travail sont de garantir a priori la sûreté des programmes en transformant des systèmes prouves, de répartir intégralement les échanges de données de manière à ne pas recourir à des mécanismes centralises, de conserver à l'exécution un modèle dicté par la disponibilité des données. Les systèmes ainsi transformés sont constitués d'un ensemble fini de fonctions de calcul dotées d'interfaces de communications ; elles constituent les tâches du système. Ces tâches ne communiquent entre-elles que par l'intermédiaire de leurs entrées et sorties. L'émission et la réception de données sont conditionnées par des commandes gardées implémentées dans le corps des interfaces
Styles APA, Harvard, Vancouver, ISO, etc.
25

Kerneis, Gabriel. « Continuation-Passing C : transformations de programmes pour compiler la concurrence dans un langage impératif ». Phd thesis, Paris 7, 2012. http://www.theses.fr/2012PA077133.

Texte intégral
Résumé :
La plupart des programmes informatiques sont concurrents : ils doivent effectuer plusieurs tâches en même temps. Les threads et les événements sont deux techniques usuelles d'implémentation de la concurrence. Les événements sont généralement plus légers et efficaces que les threads, mais aussi plus difficiles à utiliser. De plus, ils sont souvent trop limités ; il est alors nécessaire d'écrire du code hybride, encore plus complexe, utilisant à la fois des threads ordonnancés préemptivement et des événements ordonnancés coopérativement. Nous montrons dans cette thèse que des programmes concurrents écrits dans un style à threads sont traduisibles automatiquement en programmes à événements équivalents et efficaces par une suite de transformations source-source prouvées. Nous proposons d'abord Continuation-Passing C, une extension du langage C pour l'écriture de systèmes concurrents qui offre des threads très légers et unifiés (coopératifs et préemptifs). Les programmes CPC sont transformés par le traducteur CPC pour produire du code à événements séquentialisé efficace, utilisant des threads natifs pour les parties préemptives. Nous définissons et prouvons ensuite la correction de ces transformations, en particulier le lambda lifting et la conversion CPS, pour un langage impératif. Enfin, nous validons la conception et l'implémentation de CPC en le comparant à d'autres bibliothèques de threads et en exhibant notre seeder BitTorrent Hekate. Nous justifions aussi notre choix du lambda lifting en implémentant eCPC, une variante de CPC utilisant les environnements, et en comparant ses performances à celles de CPC
Most computer programs are concurrent ones: they need to perform several tasks at the same time. Threads and events are two common techniques to implement concurrency. Events are generally more lightweight and efficient than threads, but also more difficult to use. Additionally, they are often not powerful enough; it is then necessary to write hybrid code, that uses both preemptively-scheduled threads and cooperatively-scheduled event handlers, which is even more complex. In this dissertation, we show that concurrent programs written in threaded style can be translated automatically into efficient, equivalent event-driven programs through a series of proven source-to-source transformations. We first propose Continuation-Passing C, an extension of the C programming language for writing concurrent Systems that provides very lightweight, unified (cooperative and preemptive) threads. CPC programs are processed by the CPC translater to produce efficient sequentialized event-loop code, using native threads for the preemptive parts. We then define and prove the correctness of these transformations, in particular lambda lifting and CPS conversion, for an imperative language. Finally, we validate the design and implementation CPC by comparing it to other thread librairies, and by exhibiting our Hekate BitTorrent seeder. We also justify the choice of lambda lifting by implementing eCPC, a variant of CPC using environments, and comparing its performances to CPC
Styles APA, Harvard, Vancouver, ISO, etc.
26

Kerneis, Gabriel. « Continuation-Passing C : Transformations de programmes pour compiler la concurrence dans un langage impératif ». Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00751444.

Texte intégral
Résumé :
La plupart des programmes informatiques sont concurrents : ils doivent effectuer plusieurs tâches en même temps. Les threads et les événements sont deux techniques usuelles d'implémentation de la concurrence. Les événements sont généralement plus légers et efficaces que les threads, mais aussi plus difficiles à utiliser. De plus, ils sont souvent trop limités ; il est alors nécessaire d'écrire du code hybride, encore plus complexe, utilisant à la fois des threads ordonnancés préemptivement et des événements ordonnancés coopérativement. Nous montrons dans cette thèse que des programmes concurrents écrits dans un style à threads sont traduisibles automatiquement en programmes à événements équivalents et efficaces par une suite de transformations source-source prouvées. Nous proposons d'abord Continuation-Passing C, une extension du langage C pour l'écriture de systèmes concurrents qui offre des threads très légers et unifiés (coopératifs et préemptifs). Les programmes CPC sont transformés par le traducteur CPC pour produire du code à événements séquentialisé efficace, utilisant des threads natifs pour les parties préemptives. Nous définissons et prouvons ensuite la correction de ces transformations, en particulier le lambda lifting et la conversion CPS, pour un langage impératif. Enfin, nous validons la conception et l'implémentation de CPC en le comparant à d'autres bibliothèques de threads et en exhibant notre seeder BitTorrent Hekate. Nous justifions aussi notre choix du lambda lifting en implémentant eCPC, une variante de CPC utilisant les environnements, et en comparant ses performances à celles de CPC.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Dupuis-Toubol, Frédérique. « La nature juridique du programme d'ordinateur ». Paris 10, 1985. http://www.theses.fr/1985PA100195.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Lefebvre, Vincent. « Restructuration automatique des variables d'un programme en vue de sa parallélisation ». Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0008.

Texte intégral
Résumé :
Cette thèse se place dans le cadre de la parallélisation automatique de programmes. Toute tentative de parallélisation débute par une analyse des dépendances. Parmi toutes les dépendances, seules les vraies dépendances de flot correspondent effectivement à un échange d'informations entre opérations. Les autres dépendances sont artificielles, -i. E. Uniquement liées à la réutilisation mémoire. Toute dépendance artificielle peut être détruite par expansion mémoire (agrandissement des données du programme). Afin de dégager un maximum de parallélisme, on peut les supprimer toutes en réalisant une expansion totale, -i. E. En traduisant le programme en assignation unique. L'inconvénient majeur de cette technique est son coût mémoire inacceptable. Cette thèse démontre qu'une expansion partielle de la mémoire permet de dégager autant de parallélisme que l'expansion totale avec un coût mémoire beaucoup plus réduit.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Jones, Charles Albert Muñoz. « Conversion and transformation : Prince Albert's programme for a European monarchical order ». Thesis, University of St Andrews, 2018. http://hdl.handle.net/10023/16558.

Texte intégral
Résumé :
This thesis will examine the political, legal, and philosophical beliefs of Albert, the Prince Consort, in the fields of governance, foreign policy and international affairs as well as the methods he used in his attempt to realise these ideas, both domestically and abroad. This "Albertine ambition" constituted a sophisticated and coherent political programme for a coordinated Conversion and Transformation during a period of rapid and profound socio-political change in Europe. His over-arching aim was to help to establish an integrated, co-operative and mutually supporting system of constitutional European monarchies. The absence of analyses of the prince's personal role as a prime mover in foreign affairs is a puzzling gap in the rich literature on Victorian politics. Although there are references to his accomplishments within this sphere, the overall coherence of his approach and the characteristic methods he employed to achieve them have been left under-explored, if not completely neglected. Additionally, the wider context of the topic allows for a further exploration of the continuing relevance of monarchy and dynastic networks in 19th-century politics especially in the realm of foreign affairs. This endeavour will ultimately show that Albert was a prolific multinational figure, or to use Johannes Paulmann's terminology, a "Royal International" who not only had the ambition to pursue his aims but also the creative ability and resources to do so.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Vialette, Jean-Paul. « Application du programme de medicalisation des systemes informatiques au traitement du pneumothorax ». Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX20829.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

DUVAUX, CHRISTOPHE. « Teleinformatique et regionalisation des soins : a propos du programme loginat ». Lille 2, 1991. http://www.theses.fr/1991LIL2M108.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

Kanyabwero, Erwanne Paméla. « Mécanisme de contrôle du flot d'information dans un programme : approche par typage trivalué ». Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29577/29577.pdf.

Texte intégral
Résumé :
Ce mémoire présente un mécanisme d’application de politiques de sécurité grâce à une analyse de types trivaluée sur un langage impératif. Notre analyse a pour but de réduire les faux positifs générés par l’analyse statique, tout en préparant les programmes analysés à être instrumentés. Les faux positifs se produisent dans l’analyse de systèmes informatiques à temps réel quand il manque de l’information au moment de la compilation, par exemple un nom de fichier, et par conséquent, son niveau de sécurité. Notre approche visant à répondre à la question « Y a-t’il violation de la propriété de non-interférence dans le programme ? », l’idée clé est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter le programme systématiquement en cas d’incertitude, nous typons les instructions avec un type additionnel, unknown, indiquant l’incertitude. Notre travail est fait en préparation à un mécanisme d’application hybride, combinant l’analyse statique par l’analyse de types et l’analyse dynamique par l’instrumentation de code. Durant l’étape d’analyse statique, les réponses positives et négatives sont traitées de manière standard, tandis que les réponses incertaines sont clairement annotées du type incertain, préparant ainsi pour un éventuel passage à la deuxième étape : l’instrumentation. Une preuve que notre système de types est cohérent est donnée, ceci en montrant qu’il satisfait la non-interférence. Les programmes interagissent à travers les canaux de communication. Notre contribution réside dans la manipulation de trois types de sécurité, mais aussi dans le traitement des variables et canaux de communication de manière particulière. Les niveaux de sécurité sont associés aux canaux plutôt qu’aux variables dont les niveaux de sécurité varient selon l’information qu’elles contiennent.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Guerte, Yves. « Dérivation de programmes impératifs à partir de spécifications algébriques ». Phd thesis, Université Claude Bernard - Lyon I, 1996. http://tel.archives-ouvertes.fr/tel-00004992.

Texte intégral
Résumé :
Ce document présente une méthode de dérivation automatique des spécifications algébriques vers un langage impératif. Par langage impératif nous désignons un langage de programmation ``traditionnel'' avec déclarations des variables (état) et dont les programmes sont des suites d'instructions qui modifient l'état. L'instruction caractéristique est l'affectation destructrice d'une valeur à une variable. Une spécification algébrique est composée de sortes, de constructeurs qui définissent l'ensemble des valeurs atteignables (que l'on peut dénoter), et d'opérateurs axiomatisés par des équations conditionnelles orientées. Nous définissons un lien d'implémentation entre les objets du domaine abstrait des spécifications algébriques et ceux du domaine concret des programmes impératifs. Ce lien permet de paramétrer la dérivation d'une spécification. L'implémentation des opérateurs respecte le choix de la forme de dérivation et celui de la bibliothèque importée. Elle résout les conflits d'accès aux variables et minimise les coûts en recopies de valeurs engendrées par le passage du fonctionnel à l'impératif. De manière analogue au lien d'implémentation entre une spécification algébrique et un programme impératif, nous définissons un lien d'implémentation dite abstraite entre les sortes et constructeurs de deux spécifications algébriques. Nous proposons pour les constructeurs, soit d'effectuer une dérivation systématique en un type de donnée impératif, soit de calculer les liens d'implémentation abstraite potentiels vers les sortes dont les implémentations des constructeurs sont réutilisables. Une méthode de transformation de la spécification algébrique est enfin proposée, qui favorise les modifications ``en-place'' de données, dans une variante de la méthode de dérivation précédente.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Maran, Abdalhmed. « Une approche formelle pour la transformation de modèles UML-XML ». Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0007.

Texte intégral
Résumé :
UML (Unified Modeling Language) allows modeling of structure and behavior of systems and offers several kinds of diagrams. XML (eXtensible Markup Language) is a data format and it has a schema definition language which is also in XML. In XML, there are a clear separation between XML Data and their schemas, descriptions and ontology and several possible representations. From early beginning of XML, there had been associations between UML and XML and complementarities had been shown between them. Our goal is to define a new and formal approach for model transformation and use it in case of UML to XML Schemas conversion. Data and model transformations are not limited to UML and XML and exist before those languages. In data bases, model and data transformations are frequently used. Reputation and popularity of a language is a motivation to define transformations to and from it (this remains true for UML and XML). Our approach contains two main points. First of all, we define transformation rules in the meta-model lever. Secondly, we use ADT (Abstract Data Types) to write transformation rules and also to specify converted models. ADT introduces an abstraction to specified models and keep them independent from languages and implementation platforms. They are based on mathematical foundations and allow the verification of specified models and also of the transformation rules. The formal transformation framework we defined includes three libraries of ADT. The first (respectively second) library specify the UML models (respectively XML Schemas). The last ADTs' library describes transformation rules. We used LOTOS language for the implementation of our formal framework. In order to convert UML models created using CASE tools, we adopt XMI format and we programmed XSLT transformations to convert XMI documents to LOTOS representation of models. Consequently, UML models produced by CASE tools could be formally transformed using LOTOS conversions. The XML Schemas resulting from formal transformation of UML are also in LOTOS. A syntactic analyzer is programmed in Java in order to convert XML Schemas from LOTOS to their XML representation. Our approach is not limited to UML and XML Schemas and their transformations and its framework could be used in other situations with different source and target models. In particular, retro-generation of UML models from XML Schemas is possible. Model engineering based on transformations is a hot point research subject. Its normalization is a work in progress illustrated by MDA (Model Driven Architecture) and QVT (Query View Transformation). Our formal approach of model transformation conforms to the OMG's proposal about transformations and its layered architecture. Moreover, ADT introduces formalism to specified models and to transformations rules
UML (Unified Modeling Language) offre un ensemble de diagrammes permettant de décrire la structure des objets et leurs comportements. XML (eXtensible Markup Language) est un format de données. Il propose un langage pour décrire la structure (schéma) des documents et il distingue et sépare les données de leurs schémas, de leurs descriptions et ontologies et de leurs éventuelles représentations. Il est apparu très rapidement que les deux standards sont complémentaires et que le passage de l'un vers l'autre s'impose. L'objectif de cette thèse et de proposer une approche innovante et formelle pour la transformation entre modèles UML et Schémas XML. Les transformations ne se limitent pas à UML et aux Schémas XML et nous remarquons qu'elles sont antérieures à ces notations. Les bases de données forment un domaine où les conversions entre différents niveaux d'abstraction abondent. La popularité d'un langage ou d'un format (c'est le cas pour UML et XML) est une forte motivation pour développer des conversions de et vers ceux-ci. Notre approche s'appuie sur deux points principaux. Elle consiste en la définition des règles de conversion au niveau des méta-modèles pour transformer les modèles. Et elle adopte les TADs (Types Abstraits de Données) pour écrire les transformations ainsi que pour spécifier les modèles à convertir. Les TADs introduisent une abstraction dans les systèmes qu'ils spécifient et procurent, donc, une indépendance par rapport aux langages et aux plate-formes d'implémentation. Ils sont basés sur des fondements mathématiques et permettent de vérifier les propriétés autant des modèles que nous transformons que celles des conversions. La machine des transformations que nous avons créée consiste en trois bibliothèques de TADs : une première pour spécifier les modèles UML, une deuxième pour spécifier les Schémas XML et une troisième définissant les transformations. Nous avons implémenté cette architecture dans le langage LOTOS. Afin d'intégrer, dans le processus de transformation formelles, des modèles UML générés par les différents AGL disponibles, nous avons adopté le format XMI et implémenté des conversion en XSLT permettant la conversion de modèles UML de XMI vers une représentation LOTOS. Nous avons également programmé, en Java, un analyseur syntaxique permettant de transformer des Schémas XML de leurs représentation LOTOS vers XML. L'approche que nous avons adoptée n'est pas exclusive aux transformations de UML vers les Schémas XML et elle peut être utilisée avec d'autres modèles sources et destinations et en particulier pour la rétro-génération de Schémas XML à partir de modèles UML. L'ingénierie des modèles basée sur les transformations est un champ de recherche actif et les efforts de normalisations sont en cours et sont illustrés par MDA (Model Driven Architecture) et QVT (Query View Transformation). Notre approche des transformations formelles est conforme à la vision de l'OMG des transformations et à son architecture en couches. De plus, par le biais des (TADs), elle introduit un formalisme à la spécifications de modèles et des transformations
Styles APA, Harvard, Vancouver, ISO, etc.
35

CASANOVA, BRUNET ISABELLE. « Etude de la fievre q au travers d'un programme informatise ». Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX20318.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
36

OHAYON, ALAIN. « Le programme de medicalisation du systeme d'information hospitalier : description et analyse ». Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX20199.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Duruisseau, Mickaël. « Améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs ». Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I042/document.

Texte intégral
Résumé :
Les développeurs occupent une place prépondérante dans le développement logiciel. Dans ce cadre, ils doivent réaliser une succession de tâches élémentaires (analyse, codage, liaison avec le code existant...), mais pour effectuer ces tâches, un développeur doit régulièrement changer de contexte de travail (recherche d’information, lecture de code…) et analyser du code qui n’est pas le sien. Ces actions nécessitent un temps d’adaptation élevé et réduisent l’efficacité du développeur. La modélisation logicielle est une solution à ce type de problème. Elle propose une vue abstraite d’un logiciel, des liens entre ses entités ainsi que des algorithmes utilisés. Cependant, l’Ingénierie Dirigée par les Modèles (IDM) est encore trop peu utilisée en entreprise. Dans cette thèse, nous proposons un outil pour améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs. Cet outil se nomme VisUML et est centré sur l’activité principale de codage du développeur. VisUML fournit des vues (sur des pages web ou sur des outils de modélisation) synchronisées avec le code. Les diagrammes UML générés sont interactifs et permettent une navigation rapide avec et dans le code. Cette navigation réduit les pertes de temps et de contextes dues aux changements d’activités en fournissant à tout moment une vue abstraite sous forme de diagramme des éléments actuellement ouverts dans l’outil de codage du développeur. Au final, VisUML a été évalué par vingt développeurs dans le cadre d’une expérimentation qualitative de l’outil afin d’estimer l’utilité d’un tel outil
Developers dominate in software development. In this context, they must perform a succession of elementary tasks (analysis, coding, linking with existing code ...), but in order to perform these tasks, a developer must regularly change his context of work (search information, read code ...) and analyze code that is not his. These actions require a high adaptation time and reduce the efficiency of the developer. Software modeling is a solution to this type of problem. It offers an abstract view of a software, links between its entities as well as algorithms used. However, Model-Driven Engineering (MDE) is still underutilized in business. In this thesis, we propose a tool to improve the understanding of a program using dynamic and interactive diagrams. This tool is called VisUML and focuses on the main coding activity of the developer. VisUML provides views (on web pages or modeling tools) synchronized with the code.The generated UML diagrams are interactive and allow fast navigation with and in the code. This navigation reduces the loss of time and context due to activity changes by providing at any time an abstract diagram view of the elements currently open in the developer’s coding tool. In the end, VisUML was evaluated by twenty developers as part of a qualitative experimentation of the tool to estimate the usefulness of such a tool
Styles APA, Harvard, Vancouver, ISO, etc.
38

Peltier, Mikaël. « Techniques de transformation de modèles basées sur la méta-modélisation ». Nantes, 2003. http://www.theses.fr/2003NANT2057.

Texte intégral
Résumé :
Dans cette thèse, nous présentons cette problématique de manière concrète et pragmatique. Après avoir étudié les systèmes existants, nous avons développé un langage dédié permettant d'exprimer les transformations de manière formelle, non-ambigue͏̈ et exécutable. Ce langage peut constituer le cœur d'un système unifié de transformation de modèles. Les résultats des travaux de normalisation en cours nous permettent de confirmer les choix proposés et éventuellement de suggérer des extensions ou améliorations
The last modern requirements of software development have caused OMG to define an architecture driven by models that are based on modelling and meta-modelling technologies. This evolution has caused a new problem: the transformation of models. Interest in this activity growing from the industry has ended in the elaboration of a request for proposal in April 2002 whose objective will be to standardise a transformation system. In this document, we are concretely and pragmatically studying the model transformation. After having presented the existing systems, we are orientated towards usage of a domain-specific language to allowing you to express the transformations in a formal, non-ambiguous and executable way. The proposed language can constitute the heart of a unified model transformation system. The results of the normalisation works allow us to confirm the proposed choices and possible suggest extensions or improvements
Styles APA, Harvard, Vancouver, ISO, etc.
39

Kao, Kuan-Yu. « Control of the EBV growth transformation programme : the importance of the Bamhi W repeats ». Thesis, University of Birmingham, 2011. http://etheses.bham.ac.uk//id/eprint/1493/.

Texte intégral
Résumé :
Epstein-Barr virus (EBV), a human gammaherpesvirus, possesses a unique set of latent genes whose constitutive expression in B cells leads to cell growth transformation. The initiation of this B-cell growth transformation programme depends on the activation of a viral promoter, Wp, present in each tandemly arrayed BamHI W repeat of the EBV genome. In order to examine the role of the BamHI W region in B cell infection and growth transformation, we constructed a series of recombinant EBVs carrying different numbers of BamHI W repeats and carried out B cell infection experiments. We concluded that EBV requires at least 2 copies of BamHI W repeats to be able to activate transcription and transformation in resting B cells in vitro. At least 5 copies of BamHI W were required for optimal transcription and transformation; while increasing the number beyond 5 copies had no further effect. Experiments to try to rescue the impaired virus indicated that the expression of sufficient levels of EBNA-LP and EBNA2 from Wp are the key determinants of virus-driven B cell transformation. We believe that EBV has evolved to contain multiple copies of BamHI W repeats to ensure high levels of Wp-initiated transcripts immediately post infection.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Pottier, Laurent. « Le contrôle de la synthèse sonore informatique : cas particulier, l'utilisation du programme PatchWork ». Paris, EHESS, 2001. http://www.theses.fr/2001EHES0121.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
41

Lecerf, Jason. « Designing language-agnostic code transformation engines ». Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I077.

Texte intégral
Résumé :
Les transformations automatiques de code apparaissent dans diverses situations, les refactorings, les migrations inter-langages ou encore la spécialisation de code. Les moteurs supportant ces transformations cherchent dans le code source les occurrences de motifs spécifiés par l’utilisateur, puis les réécrivent grâce à une transformation. Cette transformation peut soit modifier les occurrences elles-mêmes, des éléments de la représentation intermédiaire (IR) du langage, en nouveaux éléments ou réécrire leur code source. Nous nous concentrons sur la réécriture de code source qui offre une meilleure flexibilité grâce à des transformations arbitraires particulièrement utiles à la migration et à la spécialisation de code. Les motifs sont divisés en deux catégories : les motifs explicites et syntaxiques. Les premiers demandent que l’utilisateur connaisse l’IR du langage, un effort d’apprentissage non négligeable. Les seconds demandent seulement de connaître la syntaxe du langage et non son IR, mais requièrent un effort d’implémentation supplémentaire pour les back-ends de langage du moteur. Tandis que les experts en langage connaissent l’IR et la syntaxe du langage, les autres utilisateurs connaissent seulement la syntaxe. Nous proposons un moteur de reconnaissance de motifs offrant une représentation hybride des motifs : les motifs peuvent être à la fois explicites et syntaxiques. Par défaut, le moteur se rabat sur un fonctionnement syntaxique, car la barrière à l’entrée est plus basse. Pour pallier au coup d’implémentation des back-ends de langage pour la reconnaissance syntaxique, nous prenons une approche générative. Le moteur de reconnaissance hybride est couplé avec un moteur de génération d’analyseurs syntaxiques. Ce dernier génère des analyseurs syntaxiques LR généralisés (GLR) capables d’analyser non seulement le code source à réécrire, mais également le motif à reconnaitre. L’implémenteur du back-end de langage n’a alors qu’à ajouter une ligne à la grammaire pour avoir accès au moteur de reconnaissance de motifs pour ce langage. L’approche est basée sur des analyseurs syntaxiques GLR pouvant se dupliquer et traquant ses sous-analyseurs. Ces implémentations particulières de GLR ne passent pas à l’échelle quand trop de duplications sont nécessaires pour gérer les ambiguïtés et notre approche ajoute de la duplication. Pour éviter une explosion du temps d’exécution, nos analyseurs syntaxiques FGLR fusionnent plus régulièrement et permettent une désambiguïsation à la volée pendant l’analyse via des effets de bord
Code transformations are needed in various cases: refactorings, migrations, code specialization, and so on. Code transformation engines work by finding a pattern in the source code and rewriting its occurrences according to the transformation. The transformation either rewrites the occurrences, elements of the intermediate representation (IR) of the language, into new elements or directly rewrites the source code. In this work, we focused on source rewriting since it offers more flexibility through arbitrary transformations, especially for migrations and specializations. Matching patterns come in two different flavors, explicit and syntactic. The former requires the user to know the IR of the language, a heavy knowledge burden. The latter only relies on the syntax of the matched language and not its IR, but requires significantly more work to implement the language back-ends. Language experts tend to know the IR and the syntax of a language, while other users know only the syntax. We propose a pattern matching engine offering a hybrid pattern representation: both explicit and syntactic matching are available in the same pattern. The engine always defaults to syntactic as it is the lowest barrier to entry for patterns. To counterbalance the implementation cost of language back-ends for syntactic pattern matching, we take a generative approach. We combine the hybrid pattern matching engine with a parser generator. The parser generator generates generalized LR (GLR) parsers capable of not only parsing the source but also the hybrid pattern. The back-end implementer only needs to add one line to the grammar of the language to activate the pattern matching engine. This approach to pattern matching requires GLR parsers capable of forking and keeping track of each individual fork. These GLR implementations suffer the more forking is done to handle ambiguities and patterns require even more forking. To prevent an explosion, our Fibered-GLR parsers merge more often and allow for classic disambiguation during the parse through side-effects
Styles APA, Harvard, Vancouver, ISO, etc.
42

Delamare, Romain. « Analyses automatiques pour le test de programme orientés aspect ». Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/delamare.pdf.

Texte intégral
Résumé :
La programmation orientée aspects sépare les différentes préoccupations pour améliorer la modularité et l'évolutivité. Ce paradigme introduit de nouveaux défis pour le test. Afin de proposer des solutions efficaces à ces problèmes, nous avons étudié l'utilisation d'AspectJ dans 38 projets libres. Ces observations ont révélé que les aspects sont peu utilisé, et avec précaution, et que la programmation orientée aspect diminue la testabilité en augmentant le couplage. Nous avons développé une analyse statique de l'impact des aspects sur les cas de test. Le but est de déterminer statiquement quels sont les cas de test qui sont impactés par l'introduction d'un aspect et qui doivent être modifiés pour prendre en compte les changements. Cette analyse outillée, vise à limiter le temps d'exécution des cas de test et permet au testeur de se concentrer sur les cas de test qui doivent être modifiés. Nous proposons une approche, implémentée dans un outil nommé AdviceTracer, pour tester les expressions de point de coupe séparément des greffons. Cet outil permet la définition d'un oracle spécifiquement adapté à la détection d'erreurs dans un point de coupe. Ceci permet à l'oracle de tester si un greffon a été correctement tissé, sans dépendre du comportement du greffon. Dans le cadre de cette thèse nous avons eu besoin de différentes outils d'analyse. AjMetrics est un outil qui mesure diverses métriques sur les programmes orientés aspect en utilisant un formalisme. AjMutator est un outil d'analyse de mutations de programmes orientés aspect, qui est capable d'insérer des erreurs dans les expressions de point de coupe
Aspect-oriented programming is a new paradigm that separates the different concerns to improve the modularity. This paradigm introduces new challenges for the validation. To offer effective solutions to these problems, we have studied the use of Aspect in 38 open source projects. These observations have shown that the aspects are rarely used, and with great caution, and that aspect-oriented programming reduces the testability by increasing the coupling. We have developed a static analysis of the impact of aspects on the test cases. The objective is to statically determine which test cases are impacted by the aspects and should be modified to take the changes into account. This analysis, supported by a tool, aims at reducing the execution time of the test cases and allows the tester to focus on the test cases that need to be modified. We propose an approach, implemented in a tool, AdviceTracer, to test test the pointcut descriptors separately from the advices. This tool allows the definition of oracles that are specific to the detection of faults in the pointcut descriptors. This allows the oracle to test if an advice has been correctly woven without depending on the behavior of the advice. In the context of this thesis, we have developed different analysis tools. AjMetrics is a tool which measures different metrics on aspect-oriented programs, using a formalism. AjMutator is a tool for the mutation analysis of aspect-oriented programs, which is able to insert faults in the poincut descriptors
Styles APA, Harvard, Vancouver, ISO, etc.
43

Yannias, Alexandra. « Section 26, Grootboom, and breaking new ground : South Africa's constitutional right to housing in theory and practice ». Master's thesis, University of Cape Town, 2008. http://hdl.handle.net/11427/3679.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
44

Bouchet, Sala Agnès. « Transmission et transformation identitaire, l'ambivalence du programme d'enseignement général à l'Université de Stanford (1920-1998) ». Paris 3, 2001. http://www.theses.fr/2001PA030170.

Texte intégral
Résumé :
Les "programmes d'enseignement général" correspondent aux Etats-Unis aux programmes universitaires appelés "core requirements" ou "general education courses". Ils mettent en oeuvre un large éventail de sujets empruntés le plus souvent aux disciplines des sciences humaines. Ces cours sont enseignés dès la première année universitaire et parfois sur l'ensemble du cursus jusqu'au niveau graduate. Présents sous des formes très différentes dans la grande majorité des universités, ils reposent sur la volonté de transmettre à l'ensemble des étudiants une expérience et des références culturelles essentielles et communes. L'enseignement général est donc indissociable de sa vocation identitaire. Nous étudions le discours identitaire des quatre programmes qui se sont succédés à l'Université de Stanford au cours du XXe siècle et les liens qu'ils entretiennent avec leur contexte de production. L'histoire des origines de l'enseignement général est également rappelée. .
Core requirements generally involve interdisciplinary study in humanities and sciences. Their aim is to provide a shared cultural heritage and intellectual experience for all undergraduate students at a particular institution. Therefore they inherently contribute to the building of a common identity. We studuy the cultural contents of four successive general education courses at Stanford University from 1920 to 1998, and give an insight on American identity in relation to its context of production. Our findings reveal a double process through which certain features of the American identity are preserved and others transformed, insuring social continuity as well as social change. Though this duality implies tensions, it is also a proof of American dynamism and adaptability to the needs of the society of a time. .
Styles APA, Harvard, Vancouver, ISO, etc.
45

A, Hamid Aida Hanim. « Between vision and action : the local implementation of the district transformation programme policy in Malaysia ». Thesis, University of Bristol, 2017. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.738213.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
46

Bsaïes, Khaled. « Construction de programmes logiques par synthèse de propriétés ». Nancy 1, 1993. http://www.theses.fr/1993NAN10295.

Texte intégral
Résumé :
Ce travail a pour propos la synthèse de propriétés de programmes logiques pour la transformation par pliage et dépliage. L'objectif général est l'amélioration de l'efficacité des programmes logiques par application des transformations. Le domaine de notre étude est celui des méthodes de développement formel de programmes. L'expérience et l'étude rigoureuse d'exemples montrent que les transformations par pliage et dépliage ne suffisent pas pour obtenir de manière systématique des programmes plus efficaces: il est utile de disposer et d'appliquer des propriétés qui sont des formules logiques particulières pouvant être déduites des clauses formant le programme. Le travail que nous avons réalisé s'articule autour de ces axes: 1) l'intégration de l'application de propriétés en tant que stratégies; 2) l'étude des techniques qui permettent de construire automatiquement des propriétés; en effet la découverte de propriétés est un point crucial qui marque souvent la limite de l'automatisation d'un système; 3) la preuve des propriétés découvertes. Nous avons montré que la découverte des propriétés peut être partiellement automatisé. La démarche générale consiste à mettre en évidence des classes particulières de programmes caractérisées par des modes entrée-sortie et des types. Les modes permettent d'orienter les spécifications en distinguant les données des résultats. Des techniques heuristiques ont été développées à partir de ces caractérisations. Elles permettent dans de nombreux cas de découvrir des propriétés intéressantes. Plus précisément, la stratégie proposée est basée sur l'analyse statique du programme transformé et utilise un mécanisme de projection. Nous avons étudié le problème de dépliage, ce problème est lié à la transformation de programmes logiques guidée par des schémas d'induction. Nous présentons quelques résultats théoriques liés à ce problème.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Martin, Eric. « Bilan du programme de medicalisation du systeme d'information (pmsi) en 1989 au chru de nancy ». Nancy 1, 1990. http://www.theses.fr/1990NAN11286.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Duris, Etienne JOURDAN MARTIN. « CONTRIBUTION AUX RELATIONS ENTRE LES GRAMMAIRES ATTRIBUEES ET LA PROGRAMMATION FONCTIONNELLE ». [S.l.] : [s.n.], 1998. ftp://ftp.inria.fr/INRIA/publication/Theses/TU-0541.ps.gz.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
49

Roads, Curtis. « Synthèse et transformation des microsons ». Paris 8, 1999. http://www.theses.fr/1999PA082890.

Texte intégral
Résumé :
En dessous du niveau de la note se tient le royaume du microson et des particules sonores. Les avancées technologiques récentes nous permettent d’explorer ce monde auparavant inconnu. Les techniques microsonores dissolvent les briques rigides de l’architecture musicale – les notes – et les transforment en un matériau plus souple et fluide. Cette thèse, dédiée à l’étude du microson, est le fruit d’une longue période d’activité en recherche expérimentale, programmation, et composition. Commence�� à partir de quelques fils directeurs, le texte est devenu par la suite un réseau d’informations intégrant théorie de la composition, recherche historique, études techniques, documentation de programmes, expériences acoustiques, descriptions d’œuvres de musique, et réflexions esthétiques. Les diverses informations sont présentées dans sept chapitres. À ce stade de développement, les problèmes musicaux, techniques et esthétiques sont étroitement mêlés
Beneath the level of the note lies the realm of microsound, of sound particles. The microsonic particles remained invisible for centuries. Recent technological advances let us probe and explore the beauties of this formerly unseen world. Microsonic techniques dissolve the rigid bricks of music architecture–the notes–into a more fluid and supple medium. This book is the fruit of a lengthy period of activity involving synthesis experiments, programming, and composition. Beginning with a few strands, it eventually grew into a lattice of composition theory, historical accounts, technical overviews, acoustical experiments, descriptions of musical works, and aesthetic reflections. A diverse body of information is presented in seven chapters. At this stage of development, the musical, technical, and aesthetic problems interweave
Styles APA, Harvard, Vancouver, ISO, etc.
50

Nikjoo, Soukhtabandani Ali. « Partial shape matching using CCP map and weighted graph transformation matching ». Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30611/30611.pdf.

Texte intégral
Résumé :
La détection de la similarité ou de la différence entre les images et leur mise en correspondance sont des problèmes fondamentaux dans le traitement de l'image. Pour résoudre ces problèmes, on utilise, dans la littérature, différents algorithmes d'appariement. Malgré leur nouveauté, ces algorithmes sont pour la plupart inefficaces et ne peuvent pas fonctionner correctement dans les situations d’images bruitées. Dans ce mémoire, nous résolvons la plupart des problèmes de ces méthodes en utilisant un algorithme fiable pour segmenter la carte des contours image, appelée carte des CCPs, et une nouvelle méthode d'appariement. Dans notre algorithme, nous utilisons un descripteur local qui est rapide à calculer, est invariant aux transformations affines et est fiable pour des objets non rigides et des situations d’occultation. Après avoir trouvé le meilleur appariement pour chaque contour, nous devons vérifier si ces derniers sont correctement appariés. Pour ce faire, nous utilisons l'approche « Weighted Graph Transformation Matching » (WGTM), qui est capable d'éliminer les appariements aberrants en fonction de leur proximité et de leurs relations géométriques. WGTM fonctionne correctement pour les objets à la fois rigides et non rigides et est robuste aux distorsions importantes. Pour évaluer notre méthode, le jeu de données ETHZ comportant cinq classes différentes d'objets (bouteilles, cygnes, tasses, girafes, logos Apple) est utilisé. Enfin, notre méthode est comparée à plusieurs méthodes célèbres proposées par d'autres chercheurs dans la littérature. Bien que notre méthode donne un résultat comparable à celui des méthodes de référence en termes du rappel et de la précision de localisation des frontières, elle améliore significativement la précision moyenne pour toutes les catégories du jeu de données ETHZ.
Matching and detecting similarity or dissimilarity between images is a fundamental problem in image processing. Different matching algorithms are used in literature to solve this fundamental problem. Despite their novelty, these algorithms are mostly inefficient and cannot perform properly in noisy situations. In this thesis, we solve most of the problems of previous methods by using a reliable algorithm for segmenting image contour map, called CCP Map, and a new matching method. In our algorithm, we use a local shape descriptor that is very fast, invariant to affine transform, and robust for dealing with non-rigid objects and occlusion. After finding the best match for the contours, we need to verify if they are correctly matched. For this matter, we use the Weighted Graph Transformation Matching (WGTM) approach, which is capable of removing outliers based on their adjacency and geometrical relationships. WGTM works properly for both rigid and non-rigid objects and is robust to high order distortions. For evaluating our method, the ETHZ dataset including five diverse classes of objects (bottles, swans, mugs, giraffes, apple-logos) is used. Finally, our method is compared to several famous methods proposed by other researchers in the literature. While our method shows a comparable result to other benchmarks in terms of recall and the precision of boundary localization, it significantly improves the average precision for all of the categories in the ETHZ dataset.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie