Siga este link para ver outros tipos de publicações sobre o tema: Modèle de programmation MapReduce.

Teses / dissertações sobre o tema "Modèle de programmation MapReduce"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Modèle de programmation MapReduce".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Rivault, Sébastien. "Parallélisme, équilibrage de charges et extensibilité dans le traitement des mégadonnées sur des systèmes à grande échelle". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1019.

Texto completo da fonte
Resumo:
Durant les deux dernières décennies, grâce à la réduction des coûts de stockage, d'échange et de traitement de l'information, le volume de données générées chaque année ne cesse d'exploser. Les enjeux liés au traitement de ces mégadonnées sont souvent décrits par la règle des 3V : le volume, la variété et la vitesse de création, de collecte, d'analyse et de partage des données. Pour stocker et analyser ces ensembles de données volumineux, il est essentiel d'utiliser des grappes de machines et des algorithmes extensibles et insensibles aux déséquilibres pouvant se produire pour répartir équitablement la charge sur l'ensemble des machines de traitement. Des applications telles que le filtrage collaboratif, la déduplication et la résolution d'entités sont nécessaires pour identifier des relations dans des mégadonnées en se reposant sur une notion de similarité entre les enregistrements. Ces applications permettent entre autres de retrouver des utilisateurs ayant des goûts similaires, de nettoyer les données et de détecter des fraudes. Dans ces cas, les opérations de jointure et de recherche par similarité sont utilisées pour retrouver tous les enregistrements similaires dans une ou plusieurs collections de données en utilisant une distance et un seuil défini par l'utilisateur. Bien que les équi-jointures parallèles aient été largement étudiées et mises en œuvre avec succès sur des architectures parallèles et distribuées, ces algorithmes ne sont pas adaptés à l'opération de jointure par similarité, car il n'y aucune technique de hachage ou de tri dans la littérature permettant de retrouver tous les couples d'enregistrements potentiellement similaires en une seule étape. Des techniques existent dans la littérature pour réduire l'espace de recherche tout en garantissant la complétude du résultat et en évitant le calcul d'un produit Cartésien et la comparaison de tous les couples d'enregistrements. Cependant, l'extensibilité de ces techniques est limitée et ne permet pas le traitement efficace de mégadonnées sur des systèmes à grandes échelles. Des méthodes approximatives ont été proposées pour traiter la jointure par similarité en renonçant à une petite partie du résultat et en fournissant une garantie probabiliste sur l'exhaustivité des résultats et permettant de réduire l'espace de recherche. Ces méthodes reposent sur des fonctions de hachages dont les probabilités de collisions sont sensibles à la similarité des objets. Nous nous reposons sur ces techniques pour proposer des solutions efficaces, pour le traitement de la jointure et de la recherche par similarité, basées sur l'utilisation de LSH (Locality Sensitive Hashing), d'histogrammes distribués et de schémas de communication randomisés dans le but de réduire les coûts de traitement, de communication et de lecture/écriture de données sur disques aux seules données pertinentes pour diverses distances et sur divers objets, et ce, dans le but de proposer un framework générique basé sur le modèle de programmation MapReduce répondant aux enjeux de volume, de variété et de vitesse d'analyse des données. L'efficacité et l'extensibilité des solutions proposées ont été étudiées en utilisant un modèle de coût et ont été confirmées par une série d'expériences mesurant également l'exhaustivité du résultat et la réduction de l'espace de recherche, garantissant ainsi une solution efficace quels que soient la taille, le déséquilibre des données en entrée, la distance et les seuils fournis par l'utilisateur
Over the past two decades, owing to the reduction of storage, exchange and data processing costs, the volume of data generated each year continues to explode. The challenges related to big data processing are often described by the 3Vs : volume, variety and velocity of data creation, analysis, and sharing. To store and analyze these large datasets, it is essential to use clusters of machines and scalable algorithms that are insensitive to load imbalance that may occur among processing nodes. Applications such as collaborative filtering, deduplication and entity resolution are necessary to identify relationships in big datasets relying on a notion of similarity between records. These applications enable finding users with similar tastes, cleaning data and detecting frauds in large datasets. In these cases, similarity join and similarity search operations are often used to retrieve all similar records in one or more datasets using a distance and a user-defined threshold. Although parallel joins have been widely studied and successfully implemented on parallel and distributed architectures, the algorithms are not suitable for similarity join operation, since there is no hashing or sorting techniques, in the literature, that can retrieve all potentially similar record pairs in one step. Many techniques have been introduced in the literature to reduce the search space while ensuring the completeness of the result and avoiding the computation of a Cartesian product and the comparison of all record pairs. However, the scalability of these techniques is limited and does not allow efficient processing of big datasets on large-scale systems. Approximate methods have been proposed to handle similarity join by ignoring a very small part of the result and providing a probabilistic guarantee on the completeness of the results, while reducing the search space. These methods rely on hash functions whose collision probabilities are sensitive to the objects' similarity. We rely on these techniques to propose efficient solutions for similarity join and similarity search processing, based on LSH (Locality Sensitive Hashing), distributed histograms, and randomized communication schemes in order to reduce processing time, communication, and disks I/O costs to only relevant data for various distances and objects. The aim is to propose a generic framework based on the MapReduce programming model that meets the challenges of volume, variety, and velocity of big data analysis.The efficiency and scalability of the proposed solutions were studied using a cost model and confirmed by a series of experiments measuring the result completeness and the reduction of the search space, while guaranteeing efficient similarity join processing regardless the data size and data skew, the distance and the user-defined thresholds
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Nemchenko, Sergiy. "Modèle de transactions avancées et modèle à composants". Valenciennes, 2004. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/229b5fe0-093f-46d5-bd94-a2e3d64d0cb5.

Texto completo da fonte
Resumo:
Ces dernières années nous avons pu voir le développement rapide des applications distribuées. Cet effet est lié au développement rapide du matériel et des principes de la programmation. Par conséquent, les programmes peuvent se permettre de créer des applications plus compliquées mettant en oeuvre plusieurs ordinateurs et serveurs. En même temps, les exigences de qualité de services offerts augmentent aussi. Les services non-fonctionnels sont créés pour répondre à cette demande. Le service transactionnel permet de créer des applications distribuées fiables malgré les pannes possibles. Par contre, les applications modernes ont souvent besoin de transactions longues durée. Cependant, les services transactionnels existants ne s'acquittent pas de leurs tâches dans ces conditions. Ainsi, les applications possédants les bons potentiels exécutées sur de puissants matériels peuvent être bloquées à cause de l'impuissance des serveurs transactionnels destinés aux applicatins moins compliquées. Les modèles transactionnels avancés sont destinés à résoudre le problème des transactions longues. L'analyse montre que les modèle des transactions emboîtées ouvertes corespond aux besoins des applications distribuées basées sur les composants. Ce modèle permet de valider les sous transactions définitivement sans attendre la validation de la transaction-racine. Cependant, ce modèle nécessite un mécanisme de compensation des sous-transactions validées. Ce mécanisme doit gérer les compensations appelées par le gestionnaire transationnel associé pour garantir la cohérence de la base de données dans le cas d'une panne. Dans ce travail nous proposons d'étendre le service transactionnel utilisé par les plates formes à composants au modèle des transactions emboîtées ouvertes. Nous avons commencé par la proposition d'un mécanisme des compensations des transactions exécutées par les composants. Puis, nous avons étudié l'influence d'une compensation aux autres transactions exécutées en parallèle ou après cette transaction compensable. A la fin, nous avons proposé un mécanisme permettant la cohabitation non-conflictuelle entre les transactions classiques et les transactions avancées, et plus exactement, entre les transactions plates et les transactions emboîtées ouvertes
During last years we may observe the quick development of distributed applications. This effect is evoked by quick development of hardware and of programming models. As a result, the programmers can create the more complicate software, which uses a lot of computers and servers. At the same time, the requirements to the quality of provided services are increasing too. The non-functional services are created in order to satisfy this requirement. The transactional service allows to create the reliable distributed applications in spite of the possible execution failures. But usually the new applications need the long transactions. However, the existing transactional services don't perform their charges in those conditions. As a result, the applications with a good potential, executed on powerful hardware can be blocked because of inability of transactional service which is intended for the less powerful applications. The advanced transactional models are intended to solve the problem of long transaction use. The analysis of different models shows that the Open Nested Transactions correspond to the needs of component based distributed applications. This transactional model allows to commit the sub-transactions without waiting for the commitment of the top-level transaction. In the same time, this model requires the presence of the compensation mechanism. This mechanism has to manage the compensations, caused by associated transactional manager in order to assure the database consistency in the case of failure. In this work we propose to extend the transactional service used by the component based platforms to the Open Nested Transaction model. We had begun from the proposition of compensation mechanism for the transactions executed by components. Then, we had studied the influences of compensation on the transactions, executed simultaneously or after this compensable transaction. At the end, we had proposed the mechanism allowing the non-conflict cohabitation of the classical and advanced transactions (or, more exectty, of the classical and open nested transactions)
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Markhoff, Béatrice. "Contribution à la définition d'un modèle de calcul fonctionnel paralèlle". Besançon, 1995. http://www.theses.fr/1995BESA2059.

Texto completo da fonte
Resumo:
Nous defendons la these d'une programmation de haut niveau pour l'exploitation des architectures paralleles mimd a memoire distribuee, basee sur un parallelisme de controle, et qui soit a la fois fiable et efficace. Un modele de calcul fonctionnel parallele est developpe en ce sens, que nous presentons en deux temps dans ce rapport: dans une premiere partie nous decrivons le modele de programmation supporte par un noyau de langage appele kap#2l, alors que dans la deuxieme partie nous developpons un modele d'execution parallele et distribue, par reduction de graphes. Dans le modele de programmation, qui est fonctionnel, un parallelisme de controle du type reseau de processus sequentiels de kahn est introduit, supporte par la structure de donnees suite. Afin de maitriser le grain de parallelisme, le programmeur utilise une annotation de parallelisme. Lorsqu'une application est annotee, la fonction appliquee est un processus qui accepte en entree les valeurs de ses arguments suites et produit en sortie la suite de resultats. Une semantique operationnelle parallele asynchrone par reduction est specifie et implementee sous centaur. Le modele d'execution prend la forme d'un reseau d'evaluateurs, chacun reduisant une expression, argument ou fonction. Les suites representent les liens de communications. Une machine abstraite est entierement definie, dans laquelle chaque evaluateur est une machine de reduction paresseuse de graphes de super-combinateurs. La distribution induit une localisation des donnees sur le processeur qui effectue le calcul, limitant les communications a des transmissions de groupes de valeurs. Le grain des calculs est determine par la place des annotations dans le programme initial. Le processus de compilation est egalement specifie
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Blay-Fornarino, Mireille, e Anne-Marie Pinna. "Un modèle objet logique et relationnel : le langage Othelo". Nice, 1990. http://www.theses.fr/1990NICE4359.

Texto completo da fonte
Resumo:
Cette thèse a pour but d'intégrer dans un système unique certains résultats de la programmation par objets, de la programmation en logique et de la programmation par relations. Ce système est alors capable de modéliser les connaissances du monde extérieur dans un formalisme permettant de les manipuler symboliquement. Cette thèse est constituée de trois parties principales. Définition d'un modèle objet abstrait dans lequel les opérations élémentaires sous-jacentes aux mécanismes mis en œuvre dans un langage à objets (création, héritage, envoi de message) sont redéfinissables par un programmeur. Un langage issu de ce modèle peut autoriser : la création d'objets de structures internes différentes pouvant communiquer entre eux ; la définition de modes d'héritage complexes ; l'expression des exceptions et des cas particuliers. Apports d'inférence déclarative au modèle objet. Le langage Othello est une implantation en Prolog du modèle abstrait dans laquelle les principaux mécanismes ont été reconsidérés afin d'attribuer aux objets des comportements logiques. Citons : la définition de méthodes polymorphes, l'envoi de message à objets anonymes, des combinaisons et du contrôle sur les méthodes dans un graphe d'héritage et des capacités intrinsèques à raisonner. Aspect relationnel de la connaissance. L’idée est d'utiliser l'approche objet pour décrire un langage de relations et ainsi faciliter l'expression des relations de dépendance et le maintien automatique de leur cohérence. Une des originalités de cette proposition est la prise en compte des modifications intervenant sur l'objet maitre pour rétablir de façon incrémentale la cohérence. Les liens de la hiérarchie proposée permettent de décrire les relations d'héritage et d'implanter une interface graphique. Une quatrième partie illustre ce travail par une application en thermique
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Bertrand, Frédéric. "Un modèle de contrôle réactif pour les langages à objets concurrents". La Rochelle, 1996. http://www.theses.fr/1996LAROS005.

Texto completo da fonte
Resumo:
Dans une application distribuée, les objets peuvent être considérés comme des unités d'exécution. Ce concept existe déjà depuis plusieurs années, cependant une des difficultés consiste à contrôler le fonctionnement d'un objet en tant que composant d'un programme concurrent. La solution que nous avons étudiée consiste à utiliser une approche réactive pour réaliser ce contrôle. Le choix de cette approche est motivé par l'adéquation du modèle réactif au contrôle et à l'utilisation d'une approche formelle. Ce modèle est basé sur la présence d'une entité de contrôle, au sein de chaque objet, que nous avons appelée contrôleur d'exécution réactif. Ceci permet de dissocier ce qui est relatif aux traitements (exécution des méthodes) de ce qui est relatif au contrôle de ces exécutions. En raison de la distribution des objets, nous avons retenu un modèle d'exécution réactif asynchrone permettant de s'affranchir de la contrainte d'une horloge globale à l'ensemble des objets. Nous avons défini pour le contrôleur deux modèles réactifs d'exécution. Le premier modèle dit réactif pur, dans lequel l'activation d'une méthode ne dépend que de l'état d'exécution des autres méthodes, donc de leur ordonnancement. Le contrôleur est représenté par un système de transitions. Le second modèle dit réactif étendu, dans lequel l'activation d'une méthode peut dépendre de la valeur des attributs de l'objet. Nous étendons le modèle réactif pur en utilisant des automates à contraintes. Grâce à une base formelle dans les deux modèles, il est possible d'effectuer des vérifications sur le contrôleur, l'objet ou un groupe d'objets. Nous avons mis en œuvre ce modèle en utilisant des processus légers pour permettre une concurrence inter-méthodes. Le contrôleur est automatiquement compilé à partir d'une spécification. Notre approche permet de vérifier la présence d'interblocages au sein d'un objet ou d'un groupe d'objets. Le code correspondant au contrôleur de l'objet conserve une taille raisonnable.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Núñez, López Angel Rodrigo. "Un modèle de programmation intégrant classes, évènements et aspects". Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=1ba3f61f-5a98-4b3e-8a93-b64ecca1c6ce.

Texto completo da fonte
Resumo:
Le paradigme de la programmation par objets (PPO) est devenu le paradigme de programmation le plus utilisé. La programmation événementielle (PE) et la programmation par aspects (PPA) complètent la PPO en comblant certaines de ses lacunes lors de la construction de logiciels complexes. Les applications actuelles combinent ainsi les trois paradigmes. Toutefois, la POO, la PE et la POA ne sont pas encore bien intégrées. Leurs concepts sous-jacents sont en général fournis sous la forme de constructions syntaxiques spécifiques malgré leurs points communs. Ce manque d’intégration et d’orthogonalité complique les logiciels car il réduit leur compréhensibilité et leur composabilité, et augmente le code d’infrastructure. Cette thèse propose une intégration de la PPO, de la PE et de la PPA conduisant à un modèle de programmation simple et régulier. Ce modèle intègre les notions de classe et d’aspect, les notions d’événement et de point de jonction, et les notions d’action, de méthode et de gestionnaire d’événements. Il réduit le nombre de constructions tout en gardant l’expressivité initiale et en offrant même des options de programmation supplémentaires. Nous avons conçu et mis en oeuvre deux langages de programmation basés sur ce modèle : EJava et ECaesarJ. EJava est une extension de Java implémentant le modèle. Nous avons validé l’expressivité de ce langage par la mise en oeuvre d’un éditeur graphique bien connu, JHotDraw, en réduisant le code d’infrastructure nécessaire et en améliorant sa conception. ECaesarJ est une extension de CaesarJ qui combine notre modèle avec de la composition de mixins et un support linguistique des machines à états. Cette combinaison a grandement facilité la mise en oeuvre d’une application de maison intelligente, une étude de cas d’origine industrielle dans le domaine de la domotique
Object-Oriented Programming (OOP) has become the de facto programming paradigm. Event-Based Programming (EBP) and Aspect-Oriented Programming (AOP) complement OOP, covering some of its deficiencies when building complex software. Today’s applications combine the three paradigms. However, OOP, EBP and AOP have not yet been properly integrated. Their underlying concepts are in general provided as distinct language constructs, whereas they are not completely orthogonal. This lack of integration and orthogonality complicates the development of software as it reduces its understandability, its composability and increases the required glue code. This thesis proposes an integration of OOP, EBP and AOP leading to a simple and regular programming model. This model integrates the notions of class and aspect, the notions of event and join point, and the notions of piece of advice, method and event handler. It reduces the number of language constructs while keeping expressiveness and offering additional programming options. We have designed and implemented two programming languages based on this model: EJava and ECaesarJ. EJava is an extension of Java implementing the model. We have validated the expressiveness of this language by implementing a well-known graphical editor, JHotDraw, reducing its glue code and improving its design. ECaesarJ is an extension of CaesarJ that combines our model with mixins and language support for state machines. This combination was shown to greatly facilitate the implementation of a smart home application, an industrial-strength case study that aims to coordinate different devices in a house and automatize their behaviors
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Núñez, Angel. "Un modèle de programmation intégrant classes, événements et aspects". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00656649.

Texto completo da fonte
Resumo:
Le paradigme de la programmation par objets (PPO) est devenu le paradigme de programmation le plus utilisé. La programmation événementielle (PE) et la programmation par aspects (PPA) complètent la PPO en comblant certaines de ses lacunes lors de la construction de logiciels complexes. Les applications actuelles combinent ainsi les trois paradigmes. Toutefois, la POO, la PE et la POA ne sont pas encore bien intégrées. Leurs concepts sous-jacents sont en général fournis sous la forme de constructions syntaxiques spécifiques malgré leurs points communs. Ce manque d'intégration et d'orthogonalité complique les logiciels car il réduit leur compréhensibilité et leur composabilité, et augmente le code d'infrastructure. Cette thèse propose une intégration de la PPO, de la PE et de la PPA conduisant à un modèle de programmation simple et régulier. Ce modèle intègre les notions de classe et d'aspect, les notions d'événement et de point de jonction, et les notions d'action, de méthode et de gestionnaire d'événements. Il réduit le nombre de constructions tout en gardant l'expressivité initiale et en offrant même des options de programmation supplémentaires. Nous avons conçu et mis en œuvre deux langages de programmation basés sur ce modèle : EJava et ECaesarJ. EJava est une extension de Java implémentant le modèle. Nous avons validé l'expressivité de ce langage par la mise en œuvre d'un éditeur graphique bien connu, JHotDraw, en réduisant le code d'infrastructure nécessaire et en améliorant sa conception. ECaesarJ est une extension de CaesarJ qui combine notre modèle avec de la composition de mixins et un support linguistique des machines à états. Cette combinaison a grandement facilité la mise en œuvre d'une application de maison intelligente, une étude de cas d'origine industrielle dans le domaine de la domotique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Balmas, Françoise. "Contribution à la conceptualisation de programmes : modèle, implémentation, utilisation et évaluation". Paris 8, 1995. http://www.theses.fr/1995PA081071.

Texto completo da fonte
Resumo:
Cette these propose un modele de caracterisation de l'activite des programmes. Tout programme est decrit selon l'ensemble des calculs qu'il effectue, ceux-ci etant classes en six categories admettant plusieurs variations. Actuellement, ce modele s'applique aux programmes integrant une seule boucle. La caracterisation d'un programme au travers du modele, ou schema, constitue l'explication globale de ce programme, celle-ci revelant sa structure algorithmique et permettant de le rattacher a un ensemble de stereotypes que les programmeurs experimentes connaissent bien. Le schema est egalement la specification abstraite d'un probleme a implementer, celle-ci etant alors representee sous une forme particulierement concise. La description conceptuelle est l'equivalent du programme resume par un schema dont elle est l'explication ou la specification complete. Sur la base des descriptions conceptuelles, trois systemes ont ete implementes: 1. Prisme calcule le schema et la description conceptuelle d'un programme ; il fournit donc une explication de ce programme qui aide a sa comprehension, 2. Signedit genere un programme a partir d'une description conceptuelle ; de ce fait, il introduit un style de programmation qui minimise les interventions du programmeur, 3. Acl est un langage de programmation qui propose d'utiliser les schemas comme primitives ; il integre ainsi des constructions de haut niveau d'abstraction qui favorisent le paradigme de la programmation conceptuelle. Ces systemes ont permis la validation du modele. En effet, pour environ cent cinquante programmes, le programme genere par signedit a partir de la description conceptuelle calculee par prisme est equivalent, en terme de calculs effectues, au programme original. Actuellement, ils sont intensivement utilises pour effectuer les experimentations necessaires a l'extension du modele, notamment vers un modele conceptualisant des programmes comportant plusieurs boucles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Delignieres-Hannequin, Isabelle. "Proposition d'un modèle d'évaluation parallèle de prolog". Lille 1, 1991. http://www.theses.fr/1991LIL10060.

Texto completo da fonte
Resumo:
L'accroissement des performances nécessaires au développement des applications en intelligence artificielle qui utilisent notamment la programmation logique, nécessite de recourir à l'exploitation du parallélisme. La programmation logique utilise deux formes de parallélisme: d'une part, le parallélisme explicite exploité par les langages gardes, tels CP, GHC et Prolog, d'autre part le parallélisme implicite exploitant les possibilités intrinsèques présentes dans un langage tel Prolog. L'exploitation du parallélisme implicite conduit généralement à s'éloigner de la sémantique opérationnelle classique, à générer des solutions dans un ordre non usuel rendant difficile l'introduction des prédicats à effet de bord. Le schéma d'évaluation parallèle de Prolog proposé dans le cadre du projet LOG-ARCH respecte la sémantique opérationnelle traditionnelle sans nécessiter d'annotations de la part d'un programmeur. Il exploite un parallélisme OU qui se développe par le bas de l'arbre ET/OU, et un parallélisme ET sous forme de pipeline. Un mécanisme de verrouillage est utilisé pour contrôler la production et la consommation des solutions, facilitant ainsi la prise en compte des prédicats à effet de bord. L'évaluation du modèle parallèle a été réalisée d'une part à l'aide d'un simulateur, d'autre part à partir de l'exécution véritable de programmes dont l'évaluation parallèle est reconstituée. Cette évaluation a permis de vérifier la validité du modèle et de mesurer le taux de parallélisme obtenu, dont l'ordre de grandeur est similaire à celui développé lors d'une exécution OU parallèle
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Meysembourg-Männlein, Marie Laurence. "Modèle et langage à objets pour la programmation d'applications réparties". Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00333509.

Texto completo da fonte
Resumo:
Cette thèse a été effectuée dans le cadre du projet Guide mené conjointement par le laboratoire de génie informatique et le centre de recherche Bull de Grenoble depuis mi 86. Guide est le support d'un ensemble de recherches sur la programmation des applications reparties. Ces recherches sont entreprises sur la base du développement d'un système expérimental : le système Guide. Ce dernier est un système d'exploitation reparti à objets qui fournit un haut niveau d'intégration (invisibilité de la répartition notamment). Un premier prototype du système fonctionne depuis fin 88 et permet la programmation et la mise œuvre d'applications par l'intermédiaire d'un langage de programmation spécifique. La thèse contient une présentation et une évaluation du modèle de programmation par objets mis œuvre par ce langage: la présentation met en évidence les principaux choix de conception et les justifie; l'évaluation est basée sur une étude comparative des modèles d'objets de Guide, de Trellis/Owl, d'Emerald et d'Eiffel, et sur des expériences de programmation réalisées sur le prototype. Elle met en évidence les aspects caractéristiques du modèle d'objets de guide, ses apports et ses limites
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Lazure, Dominique. "Programmation géométrique à parallélisme de données : modèle, langage et compilation". Lille 1, 1995. http://www.theses.fr/1995LIL10021.

Texto completo da fonte
Resumo:
Le parallélisme de données permet l'exploitation efficace des machines massivement parallèles, en particulier lorsque le nombre d'unités de calcul dépasse le millier. Le programmeur manipule simultanément un grand nombre de données, en leur appliquant un traitement unique séquentiellement décrit. L'algorithmique scientifique accède au parallélisme par ce biais : la majorité des applications numériques intensives sont d'ores et déjà programmées en utilisant le paradigme du parallélisme de données. Nous proposons une approche géométrique de ce modèle de programmation. Les structures de données définies par l'utilisateur sont regroupées et alignées au sein d'une entité abstraite, référentiel de toute manipulation: l'hyper-espace. L'adoption d'une sémantique des expressions basée sur ce référentiel permet d'offrir au programmeur deux vues clairement distinctes : la vue microscopique permet l'expression du parallélisme de calcul ; la vue macroscopique permet les communications parallèles à travers l'hyper-espace par une modélisation à base de primitives géométriques. Cette séparation est importante pour la phase de génération de code. Nous montrons que l'hyper-espace est une information dont l'exploitation par le compilateur autorise l'introduction de nouvelles techniques d'optimisation du code exécutable. En particulier, l'allocation mémoire des objets est issue de l'attribution des ressources physiques aux points de l'hyper-espace. Le temps d'évaluation d'une expression est optimise par un abaissement sensible du temps d'accès aux données. La gestion de la boucle de virtualisation peut aussi profiter de la modélisation géométrique qui autorise la diminution du nombre d'itérations nécessaires au traitement d'une expression. Ces résultats sont illustres par des mesures de performances issues de l'atelier de développement produit durant cette thèse. Enfin, cette étude est étendue vers un domaine plus large. La problématique de la programmation hétérogène est abordée par l'association d'un hyper-espace à une machine du réseau hétérogène. L'étude de l'adéquation du modèle aux structures creuses a permis de proposer une approche originale du traitement de l'irrégularité des données, qui fournit au programmeur l'abstraction totale de la phase de compression.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Mazo, Peña Raúl. "Modèle générique pour la vérification de modèles de lignes de produits". Paris 1, 2011. http://www.theses.fr/2011PA010075.

Texto completo da fonte
Resumo:
La production de masse n'est pas un phénomène nouveau : depuis le 12ème siècle à Venise, jusqu'à nos jours, les industries du navire, du coton et de la voiture utilisent ce concept pour accroître l'efficacité et réduire les pertes, deux facteurs clés pour améliorer les bénéfices. Cependant, le consumérisme de nos jours rend la production de masse insuffisante pour satisfaire les nouvelles exigences où la personnalisation est essentielle. Un nouveau paradigme de production était nécessaire pour soutenir ces nouvelles exigences, en gardant des coûts de production raisonnables, des besoins de main d'œuvre et des délais de commercialisation. Comme réponse à ce besoin, l'ingénierie des lignes de produits surgit comme un nouveau paradigme de développement conduit par la réutilisation qui permet la gestion de composants réutilisables. Dans cette thèse, une ligne de produits est définie comme un groupe d'applications similaires au sein d'un secteur de marché et qui partage un ensemble commun d’exigences, mais aussi présente une variabilité importante des exigences (Bosch 2000, Clements & Northrop 2001).
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Bennani, Nadia. "Proposition d'un modèle d'évaluation parallèle des langages fonctionnels sans variables". Lille 1, 1994. http://www.theses.fr/1994LIL10187.

Texto completo da fonte
Resumo:
Les langages fonctionnels se caracterisent par un parallelisme inherent qui peut etre exploite soit de maniere explicite en rajoutant des annotations dans le programme precisant ainsi les fonctions a appliquer en parallele, soit de maniere implicite de facon transparente a l'utilisateur, en adoptant une strategie d'evaluation decrite par un schema d'execution. Le modele pcube, defini par n. Devesa au sein du projet narch au lifl decrit une nouvelle strategie d'evaluation adaptee aux programmes fonctionnels sans variables. Compare aux modeles d'evaluation existants, le modele pcube s'apparente aux modeles de reduction tout en proposant une representation des expressions et des mecanismes d'evaluation differents ; les expressions fonctionnelles sont representees a l'aide de deux structures: les arborescences fonctionnelles et les arbres de donnees. L'evaluation des expressions fonctionnelles est geree par deux mecanismes asynchrones: l'exploration qui consiste en un parcours parallele des arborescences fonctionnelles dont le but est la generalation en parallele d'ordres de reduction ou redex ; le mecanisme de reduction qui consiste a prendre en compte en parallele les redex generes par l'exploration. L'exploration parallele des arborescences fonctionnelles genere parfois des ordres de reduction s'appliquant a une meme donnee. Dans ce cas, une duplication de la donnee est realisee afin de traiter ces ordres de reduction en parallele. Le travail effectue dans le cadre de cette these comporte deux parties: la premiere partie consiste en une extension du modele pcube aux fonctions polyadiques et aux fonctions d'ordre superieur. La representation proposee des fonctions et l'asynchronisme de l'exploration et de la reduction du modele pcube evitent l'accumulation de redex non traites entrainant ainsi un cout de gestion optimise, compare a celui des autres modeles de reduction. La deuxieme partie de la these, plus pratique, se base sur une simulation du modele pcube pour valider ses mecanismes et observer son parallelisme potentiel. Cette simulation a mis en evidence le phenomene d'emiettement provoque par les applications successives de fonctions. Afin de contribuer a l'amelioration du placement dynamique des donnees, nous proposons une methode de placement des copies de donnees dont l'idee est d'effectuer un controle de la granularite lors de la copie de donnees en se servant d'un seuil de placement. Les resultats obtenus par simulation de la methode dans ce cas revelent un accroissement du taux de parallelisme et donc une meilleure repartition de la charge.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Legond-Aubry, Fabrice. "Un modèle d'assemblage de composants par contrat et programmation orientée aspect". Paris, CNAM, 2005. http://www.theses.fr/2005CNAMA001.

Texto completo da fonte
Resumo:
La taille croissante des applications et la multitude de leurs interconnexions rendent de plus en plus difficile leur conception. Les composants offrent une couche d'abstraction qui améliore leurs mises en interactions et isole le code pour améliorer la portabilité et l'inter-opérabilité. Cependant, les composants souffrent d'une grande complexité de déploiement et d'un manque d'outils pour la descripton de leurs assemblages et de leurs dépendances. Actuellement, il n'existe pas de solution industrielle standardisée pour permettre l'assemblage et l'extension des composants : il faut des outils spécifiques non compatibles ou des plates-formes à composants dédiées. Nous proposons une méthode pour faciliter l'assemblage et la réutilisation de ces entités trop souvent considérées comme de simples serveurs. Nous introduisons les notions de dépendance, de connecteur, de demi-contrats et de contrat entre composants qui nous permettent d'expliciter des règles d'assemblage utilisées ensuite pour garantir la correction du système formé. Nous projetons ensuite ces contrats sur des plates-formes composants existantes. La Programmation Orientée Aspect (POA) nous permet d'injecter le code dans les composants sans en modifier le code source et en conservant la compatibilité avec une multitude de plates-formes existantes. La POA nous permet aussi par extension d'implanter des services non fonctionnels au niveau métier des composants sur des plates-formes tel que EJB et CCM. Nous avons mis en oeuvre cette approche avec l'étude d'un service de contrôle comportementale des composants. Ce service nous permet, au cours de l'exécution, de vérifier la conformité des composants avec leur spécification.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Mazer, Emmanuel. "Handey : un modèle de planificateur pour la programmation automatique des robots". Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00325222.

Texto completo da fonte
Resumo:
Système de planification de toutes les opérations nécessaires à la réalisation d'un assemblage telles que la reconnaissance, la saisie et le transport de la pièce à monter. Une architecture basée sur l'utilisation d'une hiérarchie de filtres est utilisée comme structure de contrôle
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Radenac, Yann. "Programmation "chimique" d'ordre supérieur". Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/radenac.pdf.

Texto completo da fonte
Resumo:
Dans le modèle de programmation « chimique », les programmes sont vus comme des solutions chimiques abstraites. Les données sont des molécules dont les réactions chimiques représentent les opérations. Quand des molécules vérifient une condition de réaction, elles sont remplacées par le résultat de l'opération associée. Le programme se termine quand plus aucune réaction n'est possible. On défend la thèse qu'un modèle chimique d'ordre supérieur est adapté à la programmation de systèmes s'exécutant à grande échelle. Dans ce modèle, les règles de réaction sont elles-mêmes considérées comme des molécules. On définit le gamma-calcul, un système de réécriture chimique d'ordre supérieur. Puis on construit à partir de ce calcul un langage de programmation chimique d'ordre supérieur appelé HOCL. Les programmes HOCL montrent des propriétés d'auto-organisation. On l'illustre par des exemples de programmes chimiques de systèmes autonomes et en particulier de grilles autonomes
In the "chemical" programming model, programs are viewed as abstract chemical solutions. Data are molecules whose chemical reactions represent operations between them. When some molecules satisfy a reaction condition, they are replaced by the result of the associated operation. The program finishes when no more reaction is possible. We defend the thesis that a higher-order chemical model is adapted to program systems running in a large scale. In this model, reaction rules are themselves considered as molecules. First, we define the gamma-calculus, a higher-order chemical rewriting system. Then, based on that calculus, we build a higher-order chemical programming language called HOCL. Programs written in HOCL show self-organizing properties. This is illustrated by some examples of chemical programs of autonomous systems and autonomous grids in particular
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Fauthoux, David. "Des grains aux aspects, proposition pour un modèle de programmation orientée-aspect". Toulouse 3, 2004. http://www.theses.fr/2004TOU30100.

Texto completo da fonte
Resumo:
Le développement des programmes rencontre actuellement des difficultés pour la séparation des préoccupations qui le composent. Elles sont entrelacées et leur code est éparpillé dans le programme. La programmation orientée-aspect a pour but de rendre modulaires les préoccupations et de fournir les outils pour les mélanger entre elles et au programme. Après avoir analysé en détail quatre systèmes orientés-aspect majeurs, ce mémoire présente un modèle à grains fins, les " lentilles ". Elles sont regroupées par niveaux d'abstraction. Le premier stade est le " flot " qui peut entrer en intersection avec d'autres flots. Le second stade est l' " aspect " qui est appliqué de façon clairement localisée au programme. L'objectif principal ici est l'expression de la structure du programme, afin de la rendre visible et modifiable dynamiquement. Le modèle permet d'avancer d'un pas dans la distinction entre architecturation du programme et développement des composants. Le métier d'architecte des programmes, qui possède l'outil de composition, et séparé de celui de développeur, qui manipule le langage de programmation
Current programming technologies do not able to clearly separate crosscutting concerns. The code of a concern is scattered into the program components. After having detailed and analysed four main aspect-oriented systems, this report presents a fine-grained model. These grains, the "lenses", are grouped to create more abstract components. The first step of the report describes a "flow" as a chain of lenses. A program can be defined as a set of intersecting flows. The second step of the report comes to the "aspect" concept, applied onto specified points of the program. These abstract groups (flows and aspects) are exactly shaped like lenses. Thus the model is consistent from the bottom level (classes) to the more abstract ones (groups, and groups of groups). The main goal of this report is to enable to express as brightly as possible the structure of the program. The model walks on the way which aims at splitting the program architecture building phase from the component writing phase. Architect is a job which requires composition skills and tools. It is to be separated from the developer job which uses and manipulates the program language to write components
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Moisan, Bruno. "Un modèle de programmation parallèle à objets appliqué à la synthèse d'images". Toulouse 3, 1993. http://www.theses.fr/1993TOU30206.

Texto completo da fonte
Resumo:
Les applications de synthèse d'images nécessitent des puissances de calcul très importantes. Depuis quelques années de nombreux projets de recherche visent à définir des architectures spécialisées, ou des méthodes et des outils pour paralléliser efficacement ces applications sur les calculateurs parallèles existants. Dans cette optique, notre objectif est de définir une environnement de programmation pour des applications graphiques s'exécutant sur des architectures distribuées. Nous présentons au chapitre 1, les concepts du projet Voxar, point de départ des travaux présentés. Nous rappelons quelques résultats significatifs du système de communication dédié et des applications de rendu réalisées. Nous mettons en évidence les carences de cette approche et nous introduisons au chapitre 2, un outil d'analyse qui nous permet de mieux évaluer ces problèmes. Nous montrons au chapitre 3, un état de l'art des environnements existants et quelques approches intéressantes. Nous proposons au chapitre 4, un environnement SPMD à objets, susceptible de répondre à nos attentes dans le contexte cible. La conception de cet environnement est détaillée, et des résultats expérimentaux sont présentés. Enfin au chapitre 5, nous illustrons la mise en oeuvre de cet environnement sur différentes parallélisations d'une application témoin de rendu réaliste. Nous concluons par une synthèse critique des travaux présentés et nous montrons les perspectives de recherches ouvertes par cette approche
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Duquesne, Pierre. "Un modèle de langage pour la mise à jour dynamique de programmes". Rennes 1, 2011. http://www.theses.fr/2011REN1S010.

Texto completo da fonte
Resumo:
De nombreux systèmes informatiques nécessitent d'être en fonctionnement permanent et sans interruption. Cependant, ces systèmes doivent également être régulièrement adaptés aux changements du domaine dans lequel ils opèrent et aux évolutions des besoins des utilisateurs. La mise à jour logicielle dynamique est l'opération qui consiste à remplacer un programme en exécution par une version suivante sans interrompre le fonctionnement du programme. Cette thèse divise le problème de l'évolution dynamique des programmes en deux sous-problématiques. La difficulté essentielle est d'assurer des exécutions globalement cohérentes au cours du temps, de sorte qu'un processus mis à jour réalise effectivement la tâche qui lui est confiée sans erreur de fonctionnement. La difficulté accidentelle, quant à elle, est causée par l'incapacité de définir et de comprendre la mise à jour dynamique dans les langages de programmation actuels. Pour répondre à ces problématiques, un modèle de langage est présenté. Il permet d'exprimer l'évolution dynamique des programmes et de prévoir le comportement des processus mis à jour. Ce modèle de langage introduit une entité de code - l'étape - associée à un opérateur de contrôle de haut-niveau - reach - pour permettre aux programmeurs de faire émerger la structure temporelle des programmes. La décomposition en étapes offre une vision de haut-niveau des chronologies possibles lors de l'exécution et fournit aux programmeurs des points de contrôle où le futur de l'exécution peut être entièrement redéfini
Numerous software systems must execute constantly without being interrupted. On the other hand, they also have to be regularly adapted to changes in their operational domains and to the evolution of users requirements. Dynamic software update is the process that consists in replacing a running program with a newer version without interrupting the program operation. This thesis divides the dynamic evolution problem in two sub-problems. The essential difficulty is to ensure that the resulting executions will be globally coherent across time, such that updated processes actually perform their task without producing any error. The accidental difficulty is caused by the impossibility to define and understand dynamic software updates in the existing programming languages. To address these problems, a language model is presented. It gives the ability to express the dynamic evolutions of programs and to foresee the behaviors produced by dynamically updated processes. This language model introduce a code entity - the stage - associated with a high level control operator - reach - that allows programmers to express the temporal stucture of programs. The program decomposition in stages offers a high level view of the possible executions chronologies and gives programmers control points from where the entire future of computations can be redefined
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Gransart, Christophe. "Box : un modèle et un langage à objets pour la programmation parallèle et distribuée". Lille 1, 1995. http://www.theses.fr/1995LIL10006.

Texto completo da fonte
Resumo:
Ce travail s'inscrit dans le cadre du projet pvc/BOX dont le but est le développement d'un environnement orienté objet pour l'exploitation des machines parallèles distribuées. Le concepteur d'applications réparties est devant un double problème de conception. Il doit représenter les données manipulées par son application (ainsi que les procédures qui les manipulent), mais il doit aussi représenter les activités qui vont coopérer à la réalisation de l'application. Pour répondre à ce besoin, nous introduisons un modèle prenant en charge de manière uniforme ces deux aspects de la conception d'applications réparties. Ce modèle introduit explicitement des entités qualifiées de passives et appelées simplement objets et des entités qualifiées d'actives et appelées fragments. Les premières correspondent aux objets traditionnels des langages séquentiels à objets, mais elles pourront être ici utilisées en présence de flots d'exécution concurrents. Les deuxièmes correspondent à une approche objet de la représentation des activités d'une application répartie. Le modèle introduit aussi des possibilités multiples de coopération entre objets et fragments. Le langage BOX est un langage à objets pour applications distribuées. Il inclut des caractéristiques nouvelles, spécifiques pour ce type d'applications, mais reste un langage pleinement objet. Le langage implante le modèle précédent. L'environnement BOX offre un certain nombre d'outils permettant au concepteur de produire une application répartie à partir des classes du langage. Ces applications s'appuient sur la couche système pvc qui est un support d'exécution permettant l'utilisation des systèmes d'exploitation répartis existants. Face au problème de conception des applications réparties, nous présentons donc dans cette thèse un système complet facilitant cette conception.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Doreille, Mathias. "Athapascan-1 : vers un modèle de programmation parallèle adapté au calcul scientifique". Phd thesis, Grenoble INPG, 1999. http://tel.archives-ouvertes.fr/tel-00004825.

Texto completo da fonte
Resumo:
Les ordinateurs parallèles offrent une alternative intéressante pour les applications de calcul scientifique, grandes consommatrices de ressources de calcul et de mémoire. Cependant, la programmation efficace de ces machines est souvent difficile et les implantations obtenues sont généralement peu portables. Nous proposons dans cette thèse un modèle de programmation parallèle permettant une programmation simple, portable et efficace des applications parallèles. Ce modèle est basé sur une décomposition explicite de l'application en tâches de calculs qui communiquent entre elles par l'intermédiaire d'objets en mémoire partagée. La sémantique des accès aux données partagées est quasi séquentielle et les précédences entre les tâches sont implicitement définies pour respecter cette sémantique. Nous présentons dans une première partie la mise en oeuvre de ce modèle de programmation dans l'interface applicative C++ Athapascan-1. Une analyse à l'exécution des dépendances de données entre tâches permet d'extraire le flot de données et donc les précédences entre les tâches à exécuter. Des algorithmes d'ordonnancement adaptables à l'application et à la machine cible sont également utilisés. Nous montrons comment, sur architecture distribuée, la connaissance du flot de données entre les tâches peut être utilisée par le système pour réduire les communications et gérer efficacement la mémoire partagée distribuée. Ce modèle de programmation et sa mise en oeuvre dans l'interface applicative Athapascan-1 sont ensuite validés expérimentalement sur différentes architectures et différentes applications d'algèbre linéaire, notamment la factorisation creuse de Cholesky avec partitionnement bidimensionnel. La facilité de programmation de ces applications grâce à cette interface et les résultats obtenus (amélioration des performances par rapport au code de factorisation dense de Cholesky de la bibliothèque ScaLapak sur une machine à 60 processeurs par exemple) confirment l'intérêt du modèle de programmation proposé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Le, Huédé Fabien. "Intégration d'un modèle d'Aide à la Décision Multicritère en Programmation Par Contraintes". Paris 6, 2003. http://www.theses.fr/2003PA066540.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Coustet, Christophe. "Parallélisation explicite de programmes fonctionnels et synchronisation de processus : application au modèle MaRS". Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0002.

Texto completo da fonte
Resumo:
Cette thèse traite de la parallélisation dans le cadre fonctionnel et des interactions entre granularité, taux d'activité et rendement des processus. Le modèle servant de toile de fond à notre étude est MaRS (Machine à Réduction Symbolique) développé au CERT-ONERA qui se caractérise entre autres choses par des processus à coût particulièrement faible mais en nombre limité. L'objectif de cette thèse est de dériver par une critique constructive du modèle MaRS un nouveau modèle au champ d'application étendu. Pour cela une première partie est consacrée à la présentation du cadre fonctionnel et du modèle MaRS dont nous exhibons les caractéristiques les plus marquantes. La deuxième partie montre l'influence du coût d'accès aux données sur le taux de parallélisme effectif et expose l'implémentation performante sous forme combinatoire de diverses structures de données. La troisième partie traite de l'influence du taux d'activité des processus sur le taux de parallélisme effectif et étudie deux approches qui visent à augmenter le taux de parallélisme effectif en diminuant le taux d'attente des différents processus. Enfin, la quatrième partie analyse le paradigme pipe-line qui, bien qu'étant probablement le plus expressif et aisé à utiliser dont dispose le programmeur fonctionnel, s'avère un bien piètre outil de parallélisation de par la faible granularité des processus généralement engendrés. Une nouvelle approche de la synchronisation entre producteur et consommateur est proposée qui permet, tout en conservant intact l'aspect algorithmique du paradigme, de franchir ce cap de la granularité. Des exemples illustrent les différents mécanismes de synchronisation proposés et en particulier l'algorithme de recherche IDA*.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Pantel, Marc. "Représentation et transformation : un modèle de la réutilisabilité pour les langages fonctionnels à objets". Toulouse, INPT, 1994. http://www.theses.fr/1994INPT014H.

Texto completo da fonte
Resumo:
L'objet de cette these est la definition d'un langage fonctionnel a objets possedant de bonnes proprietes de reutilisabilite et d'expressivite. Dans ce memoire, nous proposons un nouveau modele de reutilisabilite qui repose sur les notions de representations et de transformations. La premiere partie presente une etude synthetique des modeles de type et d'effets impurs. La deuxieme partie decrit le modele a base de representations et de transformations et propose plusieurs evolutions des mecanismes usuels de la programmation par objets. La troisieme partie presente un premier langage: micro-fol. Les representations y sont definies a partir de signatures et les methodes et transformations a partir de fonctions. Nous proposons un mecanisme d'inference de type par resolution de contraintes ensemblistes qui permet d'associer des informations de type precises aux phrases du langage. Ce mecanisme exploite les differentes formes de polymorphisme associees a la programmation par objets: genericite, sous-typage et surcharge. La quatrieme partie etudie l'introduction d'effets impurs dans la programmation fonctionnelle en utilisant la structure de monade qui permet de definir une semantique uniforme des differents effets impurs. La derniere partie est consacree a la presentation du langage fol, extension syntaxique de micro-fol. Le langage ainsi obtenu constitue un support pour l'etude des proprietes d'expressivite et de reutilisabilite
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Leblanc, Hervé. "Sous-hiérarchie de Galois : un modèle pour la construction et l'évolution des hiérarchies d'objets". Montpellier 2, 2000. http://www.theses.fr/2000MON20155.

Texto completo da fonte
Resumo:
La production et la maintenance des hierarchies de classes (classes devant etre compris au sens large, incluant en particulier les interfaces au sens des langages java et idl) sont des points cles dans l'ingenierie des objets. Nous avons choisi, pour automatiser les procedes de construction de ces hierarchies, de produire un sous-ordre utile du treillis de galois (ou treillis de concepts), appele sous-hierarchie de galois. Cette structure assure une factorisation totale des proprietes et une organisation des classes coherente d'un point de vue conceptuel. Notre problematique est l'etude de la construction globale de la sous-hierarchie de galois. Une telle construction part de la donnee de la relation binaire a pour propriete entre un ensemble de proprietes. Nous comparons et analysons differents algorithmes globaux qui produisent des structures proches d'une sous-hierarchie de galois. Puis nous proposons et etudions les proprietes d'un algorithme global efficace construisant une sous-hierarchie de galois. Cet algorithme est base sur une nouvelle definition constructive de la structure et sur l'entrelancement de deux extensions lineaires, l'une portant sur les concepts qui factorisent les proprietes, et l'autre sur les concepts dont le seul role est de definir les classes d'origine. Cet algorithme est implemente et mis en pratique. A partir d'une hierarchie de classes java (en heritage simple), nous montrons comment produire automatiquement la sous-hierarchie de galois des interfaces java (en heritage multiple) correspondante. Cette technique est appliquee a certaines parties de l'api java, ainsi qu'a une application developpee au sein de france telecom r&d, et les resultats sont discutes. Nous indiquons quelques pistes pour utiliser cette technique dans une optique de retro-conception.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Majoul, Salam. "Etude et mise en oeuvre d'un modèle de coordination basé sur la réécriture". Toulouse 3, 2000. http://www.theses.fr/2000TOU30171.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Li, Chong. "Un modèle de transition logico-matérielle pour la simplification de la programmation parallèle". Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00952082.

Texto completo da fonte
Resumo:
La programmation parallèle et les algorithmes data-parallèles sont depuis plusieurs décennies les principales techniques de soutien l'informatique haute performance. Comme toutes les propriétés non-fonctionnelles du logiciel, la conversion des ressources informatiques dans des performances évolutives et prévisibles implique un équilibre délicat entre abstraction et automatisation avec une précision sémantique. Au cours de la dernière décennie, de plus en plus de professions ont besoin d'une puissance de calcul très élevée, mais la migration des programmes existants vers une nouvelle configuration matérielle et le développement de nouveaux algorithmes à finalité spécifique dans un environnement parallèle n'est jamais un travail facile, ni pour les développeurs de logiciel, ni pour les spécialistes du domaine. Dans cette thèse, nous décrivons le travail qui vise à simplifier le développement de programmes parallèles, en améliorant également la portabilité du code de programmes parallèles et la précision de la prédiction de performance d'algorithmes parallèles pour des environnements hétérogènes. Avec ces objectifs à l'esprit, nous avons proposé un modèle de transition nommé SGL pour la modélisation des architectures parallèles hétérogènes et des algorithmes parallèles, et une mise en œuvre de squelettes parallèles basés sur le modèle SGL pour le calcul haute performance. SGL simplifie la programmation parallèle à la fois pour les machines parallèles classiques et pour les nouvelles machines hiérarchiques. Il généralise les primitives de la programmation BSML. SGL pourra plus tard en utilisant des techniques de Model-Driven pour la génération de code automatique á partir d'une fiche technique sans codage complexe, par exemple pour le traitement de Big-Data sur un système hétérogène massivement parallèle. Le modèle de coût de SGL améliore la clarté de l'analyse de performance des algorithmes, permet d'évaluer la performance d'une machine et la qualité d'un algorithme
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Plateau, Florence. "Modèle n-synchrone pour la programmation de réseaux de Kahn à mémoire bornée". Paris 11, 2010. http://www.theses.fr/2010PA112080.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons aux modèles et aux langages pour la programmation d'applications de traitement de flux ayant des contraintes de temps-réel, comme les applications multimédias. Elles manipulent des flots de données infinis, auxquels sont appliquées des opérations successives. Ces systèmes peuvent être représentés par des réseaux de Kahn. Dans ce modèle, des noeuds de calcul s'exécutent de manière concurrente et communiquent à travers des buffers infinis. Son intérêt est d'être déterministe tout en permettant d'exprimer le parallélisme intrinsèque aux applications. Néanmoins, il présente l'inconvénient de ne pas donner de garanties sur l'absence d'interblocage et sur le caractère borné des buffers. Les langages synchrones flot de données fournissent un cadre simple pour la programmation de réseaux de Kahn sans buffers. Ils offrent des garanties fortes comme l'absence de blocage et un besoin en mémoire bornée. La contrepartie de ces garanties est un manque de souplesse dans la composition des flots : celle-ci doit être réalisée sans buffers. Le modèle n-synchrone est une extension du modèle synchrone qui relâche cette contrainte de manière contrôlée. Il permet une composition plus souple, tout en conservant les garanties statiques offertes par les langages synchrones. Nous présentons un langage qui met en oeuvre le modèle n-synchrone. En particulier, nous détaillons les analyses permettant de vérifier statiquement qu'un programme est exécutable avec des buffers bornés et de calculer automatiquement leur taille
In this thesis, we are interested in models and languages to program stream processing applications with real-time constraints, such as multimedia applications. They manipulate infinite data flows, on which they apply successive operations. These systems can be represented by Kahn Process Networks. In this model, computation nodes are executed concurrently and communicate through unbounded buffers. It has the advantage of being deterministic and yet allowing to express the intrinsic parallelism of applications. Nevertheless, it does not guarantee that the system is deadlock free and that it can be executed with bounded memory. Dataflow Synchronous Languages are a simple framework to program Kahn Process Networks without buffers. They offer strong guarantees on memory bounds and absence of deadlocks. The downside of these guarantees is a lack of flexibility in the composition of flows: communication must be done synchronously, that is without buffers. The n-synchronous model is an extension of the synchronous model that relaxes the synchronous constraint in a controlled way. It allows a more flexible composition while preserving static guarantees given by synchronous languages. We present a n-synchronous language and we focus on the analysis which statically checks that a program can be executed with bounded buffers and automatically computes those sizes
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Skalli, Houssaini Mohamed Ali. "Programmation dynamique et planification : un modèle de régulation des prix sectoriels en France". Paris 2, 1991. http://www.theses.fr/1991PA020014.

Texto completo da fonte
Resumo:
Un modele de politique economique doit non seulement constituer une representation fidele du systeme qu'il decrit, mais doit aussi avoir les proprietes qui assurent l'existence, l'unicite et la faisabilite de la politique optimale a evaluer. Dans ce travail, nous construirons un modele dynamique des prix sectoriels francais, montrons qu'il tient compte de l'origine et du mode de transmission inter-sectorielle des mouvements des prix et proposons des methodes qui permettent d'en analyser les proprietes dynamiques. En effet, issu des techniques input-output, ce modele, pour etre utilise a des fins de politique economique, necessite que ses parametres (coefficients d'absorption, valeurs ajoutees unitaires. . . ) soient prevus. Il s'agit donc d'un modele a parametres variants dont deux versions peuvent etre exploitees: l'une deterministe, la seconde stochastique puisqu'il y est tenu compte des erreurs de prevision. Il est donc clair que les conditions d'existence, d'unicite et de faisabilite, deja existantes pour un modele dynamique a parametres constants, doivent etre generalisees aux cas variant et stochastique. Ces conditions sont determinees a partir d'un modele abstrait de caractere tres general, puis utilisees pour l'analyse et la resolution d'un probleme de regulation salariale des prix sectoriels en france. Les resultats sont alors compares a ceux obtenus sous les hypotheses de constance des parametres et de leur connaissance parfaite, puis a ceux reellement observes entre 1986 et 1990
A policy model has not only to be a faithful representation of the system it describes. It must also have properties that ensure existence, unicity and feasibility of an optimal policy. In this dissertation, we build a model that describes the dynamics of the sectoral prices. Then we show that it takes into consideration the origin and the intersectoral transmission mode of the price movements. Finally, methods are proposed for the analysis of its dynamic properties. In fact, the model framework is bases on inputoutput technique. Hence, its use for the purpose of economic policy determination necessitates the prediction of its parameters. Thus, it is a time-varying parameters model that could be considered as deterministic if prediction errors are neglected and as stochastic if they are taken into account. Therefore, existence, unicity and feasibility conditions which are known for deterministic constanparameters models have to be generalized to deal with stochastic and time-varying parameter ones. These conditions are first defined on the basis of a mathematical model of highly general form. Then they are utilized in order to analyse and to solve the problem of determining a wage policy which is compatible with the regulation of french sectoral prices. Finally, the results are analytically and empirically compared to those obtained under the deterministic constant-paremeters model hypothesis and the evaluated optimal policies are compared to the price trajectories truly observed between 1986 and 1990
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Rebeuf, Xavier. "Un modèle de coût symbolique pour les programmes parallèles asynchrones à dépendances structurées". Orléans, 2000. http://www.theses.fr/2000ORLE2056.

Texto completo da fonte
Resumo:
L'objectif d'une parallélisation est souvent de minimiser en premier lieu le temps d'exécution. Il paraît donc indispensable de disposer d'un modèle permettant d'évaluer a priori les performances d'un algorithme. Or, l'évaluation repose sur l'identification des synchronisations pour chaque exécution (dépendances-écriture-lecture). Sans restriction de l'expression du parallélisme, un calcul exact conduit généralement à une explosion combinatoire. Pour pallier ce problème, les modèles de coût classiques, ne prennent généralement en compte qu'une partie du parallélisme possible, permettant ainsi de définir statiquement un surensemble cohérent des dépendances de toutes les exécutions d'un algorithme. Nous proposons un modèle intermédiaire fondé sur la structuration de la résolution dynamique des accès aux données. Nous montrons qu'il est possible de représenter symboliquement l'ensemble des dépendances effectives de chaque exécution, et d'obtenir ainsi une évaluation exacte du coût sans explosion combinatoire. Nous conditionnons l'existence de chaque dépendance en l'annotant par un prédicat. Le coût d'un programme est alors exprimé symboliquement en fonction de ces prédicats. Pour être capable de l'évaluer dans l'environnement initial, nous transformons les prédicats grâce à une méthode fondée sur le calcul des plus faibles préconditions. Le coût symbolique obtenu est paramétré par l'environnement initial et il intègre les indépendances dynamiques. Afin d'assurer la compositionalité des coûts symboliques, nous étendons le calcul des plus faibles préconditions aux expressions. Nous développons pour cela une sémantique permettant d'exprimer symboliquement ce que calcule le programme et de calculer son coût par induction sur la syntaxe. Nous montrons qu'il est possible d'intégrer au modèle des paramètres de l'architecture ainsi qu'une charge instantanée du réseau. Nous comparons les résultats obtenus sur plusieurs algorithmes avec des expérimentations sur Cray T3E.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Berger, Laurent. "Mise en oeuvre des interactioons en environnements distribués, compilés et fortement typés : le modèle MICADO". Nice, 2001. http://www.theses.fr/2001NICE5644.

Texto completo da fonte
Resumo:
La programmation orientée objets a déjà prouvé ses intérêt lors de la mise en œuvre d’applications complexes. Le développement des applications distribuées à l’aide de technologies objets est réalisable mais cela implique de gérer les communications entre les objets distants. Des outils tels que CORBA, RPC et Java RMI facilitent la mise en œuvre de la communication en masquant les accès réseaux. Cette maturation en termes de réseaux et de programmation par objets conduit aujourd’hui à une intensification du développement d’applications distribuées. Cette évolution des applications distribuées augmente le besoin de spécifier explicitement les sémantiques des communications et interactions entre des objets. Cependant, les outils mentionnés ci-dessous ne permettent pas d’exprimer les sémantiques des interactions entre des objets. Seuls quelques travaux vont dans le sens d’une expression et d’une gestion des interactions entre des objets distants indépendamment de leurs fonctionnalités intrinsèques. Cependant, il existe encore des travaux à faire sur la "sémantique" des interactions entre objets distants afin d’apporter encore plus de flexibilité, de facilité et une meilleure réutilisation lors de la mise en œuvre d’applications distribuées. La solution avancée est la définition d’un modèle et d’une architecture distribuée de gestion des interactions entre objets distants, dans les environnements compilés, fortement typés et distribués. Elle est basée sur ISL (Interaction Specification Language), notre langage de description des interactions ainsi que sur un système de réécriture des comportements réactifs
Objected oriented programming has already proved its interest to implement complex applications. Distributed applications can also be developed with object technologies but this implies to manage communications between remote objects. Tools such as CORBA, RPC and Java RMI facilitate the communication implementation by hiding network accesses. This maturation in terms of network and object programming is today sufficient to allow an important evolution for the GroupWare distributed applications. This evolution of distributed applications increases the need to specify explicitly the communication and interaction semantics between objects. However the above-mentioned tools do not allow the expression of the semantics of interactions between objects. Few works deal with the way to express and to manage interactions between remote objects independently of their intrinsic behavior. However there are many works to do about the “semantic” of the interactions, i. E. Inter object communications, between remote objects in order to bring more flexible, more reusable and more easy the implementation of distributed applications. The proposed solution is the definition of a model to manage interaction between remote objects in environments used by the industry word, i. E. Compiled, strongly typed and distributed environments. This solution is based upon ISL (Interaction Specification Language) our language to describe interactions and upon a rewriting system for reactive behaviors
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

SALSET, THIERRY. "Correction séquentielle de programmes parallèles dans le modèle asynchrone et mémoire partagée". Marne-la-vallée, ENPC, 1997. http://www.theses.fr/1997ENPC9711.

Texto completo da fonte
Resumo:
Nous étudions une propriété de correction de programmes écrit dans un sous-ensemble de fortran étendu avec des constructions parallèles empruntées à un projet de norme ANSI. Le modèle de parallélisme est asynchrone et a mémoire partagée. La propriété est une équivalence entre le programme parallèle étudie et sa version séquentielle. Sous certaines hypothèses, nous prouvons que cette propriété résulte de la préservation des dépendances, définies sur la version séquentielle, par le flot de contrôle et les synchronisations. La condition essentielle de préservation est une relation d'implication entre la formule de dépendance et une formule de précédence. Celle-ci est définie à partir d'un graphe d'instances d'instructions qui représente la réunion de la relation de précédence due au contrôle et d'une relation de précédence induite par le mécanisme d'attente résultant de l'exécution des instructions de synchronisation. Nous passons, par projection, du graphe d'instances, infini, a un graphe d'instructions, fini, équivalent dont les arcs sont étiquetés par des formules d'arithmétique du premier ordre. Pour faciliter le calcul des précédences, nous introduisons un graphe de blocs d'un nouveau type. À l'intérieur d'un bloc la précédence est seulement due au contrôle. En considérant des chemins de longueur fini, dans ce graphe, entre la source et la cible de la dépendance, nous parvenons à exprimer des approximations de la formule de précédence. Dans le cas où les expressions du programme sont linéaires, un algorithme tente de prouver que la formule de correction, qui est alors une formule de pressurer, est une tautologie. Il est fait appel pour la réduction des systèmes au test oméga conçu à l'université du maryland. L’algorithme manipule des systèmes d'équations et d'inéquations sous forme symbolique. Il ne fournit pas seulement un résultat binaire (oui/non), mais un ensemble réduit de contraintes qui peut être interprète comme une condition de validité à respecter.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Thomas, Isabelle. "Modèle de l'utilisateur, modèle de la tache et modèles d'explications pour expliquer dans le contexte des taches de conception : application en conception d'équipements électroniques". Paris 13, 1993. http://www.theses.fr/1993PA132026.

Texto completo da fonte
Resumo:
Les systèmes a base de connaissances sont aujourd'hui exploites pour réaliser des taches complexes, comme la recherche documentaire, du conseil financier, ou de la conception d'équipements électroniques, qui nécessitent non seulement de mettre en œuvre un raisonnement, mais encore d'instaurer une coopération entre le systeme informatique et son utilisateur. Cette thèse vise l'amélioration de l'interaction entre un tel systeme et son utilisateur, par le développement des capacités d'explication du premier. Notre réflexion est issue d'une étude de cas, le développement d'un module d'explication pour un systeme d'aide a la conception d'équipements électroniques de satellites. Nous proposons de considérer l'explication comme une forme de communication qui respecte un principe de coopération, i. E. Qui dépasse la réponse directe a la question de l'interlocuteur, en lui apportant des informations qu'il n'a pas explicitement demandées mais qui vont faciliter sa compréhension. Nous soutenons que la mise en œuvre du principe de coopération est spécifique de la tache pour laquelle le systeme est utilise. Nous avons élaboré une méthode de construction d'explications qui comporte trois phases. La première phase analyse la question de l'utilisateur et en construit une représentation conceptuelle. La deuxième phase construit une représentation conceptuelle de l'explication, qui spécifie son contenu informatif et sa structure rhétorique. Dans un premier temps, un schéma explicatif est sélectionné puis instancie par rapport au contexte de l'interaction. Dans un deuxième temps, l'explication ainsi construite est complétée de manière opportuniste, par des informations destinées à bloquer les inférences incorrectes et a devances les nouvelles questions de l'utilisateur. La troisième phase engendre le texte correspondant à l'explication conceptuelle
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Kengne, Tchendji Vianney. "Solutions parallèles efficaces sur le modèle CGM d'une classe de problèmes issus de la programmation dynamique". Amiens, 2014. http://www.theses.fr/2014AMIE0106.

Texto completo da fonte
Resumo:
Plusieurs facteurs technologiques, logiciels et économiques amènent les concepteurs d'architectures parallèles à converger vers des systèmes multi-processeurs gros-grain. Pourtant, la plupart des logiciels parallèles ont été conçu pour des systèmes parallèles à grains fins et pour des systèmes à mémoire partagée. Dans cette thèse, nous utilisons le modèle de calcul parallèle BSP/CGM (Bulk Synchronous Parallel / Coarse-Grained Multicomputer), conçu dans le but de diminuer l'écart entre le logiciel et le matériel, pour apporter des solutions parallèles efficaces, à une classe de problèmes issus de la programmation dynamique. Il s'agit d'une classe de problèmes de type polyadique non-serial qui se caractérise par une très forte dépendance entre les calculs. Cette classe compte par exemple le problème d'ordonnancement de produit de chaine de matrices, le problème de triangulation optimale d'un polygone convexe, le problème de recherche de l'arbre binaire de recherche optimal, etc. Pour ce faire, nous commençons par mener une étude de l'outil de conception de nos solutions, c'est-à-dire le modèle de calcul parallèle BSP/CGM. Ensuite, nous présentons quelques-uns des problèmes de la classe étudiée ainsi que quelques algorithmes séquentiels permettant de les résoudre. Après, nous proposons un mécanisme de rééquilibrage de charge des processeurs pour un algorithme BSP/CGM existant. Il permet de résoudre tous les problèmes de la classe abordée. En s'inspirant de cet algorithme, nous proposons une nouvelle solution générique ayant de meilleures performances. Enfin, nous proposons deux algorithmes BSP/CGM typiques à certains problèmes de la classe. Ces algorithmes sont basés sur des solutions séquentielles dites accélérées. Ils permettent d'obtenir de meilleures performances que la première
Several factors lead designers of parallel architectures to converge to coarse-grained multi-processor Systems. However, most parallel software has been designed for fine-grained parallel Systems and for Systems with shared memory. In this thesis. We use the BSP/CGM (Bulk Synchronous Parallel / Coarse-Grained Multicomputer) parallel Computing model, designed to close the gap between software and hardware, to provide parallels solutions to a class of dynamic programming problems, This is a polyadique non-serial dynamic programming class of problems. Which is characterized by very high dependence of calculations. This class includes, for example, Matrix Chain Ordering Problem, Triangulation of Convexe Polygon problem and Optimal Binay Search Tree problem. To do this, we start by carry out a detailed study of the design tool of our solutions, i. E. The BSP/CGM parallel Computing model. Then, we present some of the problems of the class studied and some sequential algorithms to solve them. After that, we propose a load balancing mechanism of the processor for an existing generic BSP/CGM algorithm which solves ail the problems of the class discussed. From this algorithm, we propose a new generic solution with better performance. Finally, we propose two BSP/CGM algorithms for typical problems of the class. These algorithms are based on sequential solutions said accelerated. They perform better than the first
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Rossignon, Corentin. "Un modèle de programmation à grain fin pour la parallélisation de solveurs linéaires creux". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0094/document.

Texto completo da fonte
Resumo:
La résolution de grands systèmes linéaires creux est un élément essentiel des simulations numériques.Ces résolutions peuvent représenter jusqu’à 80% du temps de calcul des simulations.Une parallélisation efficace des noyaux d’algèbre linéaire creuse conduira donc à obtenir de meilleures performances. En mémoire distribuée, la parallélisation de ces noyaux se fait le plus souvent en modifiant leschéma numérique. Par contre, en mémoire partagée, un parallélisme plus efficace peut être utilisé. Il est doncimportant d’utiliser deux niveaux de parallélisme, un premier niveau entre les noeuds d’une grappe de serveuret un deuxième niveau à l’intérieur du noeud. Lors de l’utilisation de méthodes itératives en mémoire partagée,les graphes de tâches permettent de décrire naturellement le parallélisme en prenant comme granularité letravail sur une ligne de la matrice. Malheureusement, cette granularité est trop fine et ne permet pas d’obtenirde bonnes performances à cause du surcoût de l’ordonnanceur de tâches.Dans cette thèse, nous étudions le problème de la granularité pour la parallélisation par graphe detâches. Nous proposons d’augmenter la granularité des tâches de calcul en créant des agrégats de tâchesqui deviendront eux-mêmes des tâches. L’ensemble de ces agrégats et des nouvelles dépendances entre lesagrégats forme un graphe de granularité plus grossière. Ce graphe est ensuite utilisé par un ordonnanceur detâches pour obtenir de meilleurs résultats. Nous utilisons comme exemple la factorisation LU incomplète d’unematrice creuse et nous montrons les améliorations apportées par cette méthode. Puis, dans un second temps,nous nous concentrons sur les machines à architecture NUMA. Dans le cas de l’utilisation d’algorithmeslimités par la bande passante mémoire, il est intéressant de réduire les effets NUMA liés à cette architectureen plaçant soi-même les données. Nous montrons comment prendre en compte ces effets dans un intergiciel àbase de tâches pour ainsi améliorer les performances d’un programme parallèle
Solving large sparse linear system is an essential part of numerical simulations. These resolve can takeup to 80% of the total of the simulation time.An efficient parallelization of sparse linear kernels leads to better performances. In distributed memory,parallelization of these kernels is often done by changing the numerical scheme. Contrariwise, in sharedmemory, a more efficient parallelism can be used. It’s necessary to use two levels of parallelism, a first onebetween nodes of a cluster and a second inside a node.When using iterative methods in shared memory, task-based programming enables the possibility tonaturally describe the parallelism by using as granularity one line of the matrix for one task. Unfortunately,this granularity is too fine and doesn’t allow to obtain good performance.In this thesis, we study the granularity problem of the task-based parallelization. We offer to increasegrain size of computational tasks by creating aggregates of tasks which will become tasks themself. Thenew coarser task graph is composed by the set of these aggregates and the new dependencies betweenaggregates. Then a task scheduler schedules this new graph to obtain better performance. We use as examplethe Incomplete LU factorization of a sparse matrix and we show some improvements made by this method.Then, we focus on NUMA architecture computer. When we use a memory bandwidth limited algorithm onthis architecture, it is interesting to reduce NUMA effects. We show how to take into account these effects ina task-based runtime in order to improve performance of a parallel program
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Sakdavong, Jean-Christophe. "Un modèle orienté objet pour la programmation distribuée fondé sur des classes de configuration". Toulouse 3, 1996. http://www.theses.fr/1996TOU30082.

Texto completo da fonte
Resumo:
Cette these traite d'un modele de programmation dedie a la programmation orientee objet dans les systemes distribues. Le modele propose est appele d-hector et il permet d'etendre un langage oriente objet sequentiel a la programmation parallele et distribuee. Celui-ci apporte la notion de classes distribuables a partir desquelles il est possible d'instancier des objets distribues. Le modele d-hector a ete concu selon l'idee qu'il est possible de separer les classes distribuables en trois composants fondamentaux. Il s'agit des classes fonctionnelles (attributs et methodes), des classes de synchronisation et des classes de configuration. L'utilisation du concept d'objet avec heritage a permis de definir des hierarchies specifiques aux trois genres de composants. Les classes fonctionnelles sont les classes telles qu'elles sont connues dans les langages orientes objet imperatifs et servent a la description des fragments d'objets appeles representants. Les classes de synchronisation sont dediees a la synchronisation des objets distribues. Les classes de configuration sont l'originalite principale de ce travail. Les classes de configuration definissent la configuration dynamique d'objets distribues et leur routage associe a l'aide d'un systeme de regles d'evolution. Une implantation du modele d-hector s'appuyant sur le langage c++ est presentee. Cette implantation a necessite l'ecriture en c++ d'un noyau d'execution distribue utilisant un haut degre de parallelisme et de distribution
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Royer, Jean-Claude. "Un modèle de programmation par objets en SCHEME : application à la synthèse d'images 2D". Bordeaux 1, 1989. http://www.theses.fr/1989BOR10512.

Texto completo da fonte
Resumo:
Les concepts de la programmation par objets sont etudies, principalement dans les langages possedant les notions de classe et de metaclasse. Un certain nombre de problemes dus a l'heritage statique des variables d'instances, a certaines strategies de recherche et les faiblesses de l'assimilation classe/ensemble sont montres. Le langage propose ensuite integre certains traits originaux destines a remedier a ces problemes
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Collard, Philippe. "L'apprentissage discriminant dans MAGE, un modèle d'apprentissage général". Nice, 1990. http://www.theses.fr/1990NICE4383.

Texto completo da fonte
Resumo:
Cette thèse est une contribution au modèle d'apprentissage général MAGE. Ce modèle repose sur l'hypothèse qu'il existe des mécanismes généraux d'apprentissage, au sens où ces mécanismes sont indépendants du domaine de connaissance. Cette hypothèse induit des restrictions importantes sur la nature de l'apprentissage ; ainsi, on se place dans le contexte d'un apprentissage de bas niveau portant sur des coefficients numériques associés à des connaissances élémentaires de type transition d'états. L’idée soutenue est que des principes généraux ne doivent pas être recherchés uniquement au niveau des modalités de l'apprentissage mais également à celui des mécanismes d'apprentissage eux-mêmes. Les premiers principes d'apprentissage formulés s'inspirent des travaux psychologiques. On a pu mettre en évidence, tant au niveau de la convergence qu'a celui des performances, l'intérêt d'un système qui évolue d'un état de grande versatilité vers un état stable. L’unification des concepts ainsi introduits a nécessité la définition d'un cadre formel dans lequel sont développés des éléments pour une théorie de l'apprentissage discriminant. Ces éléments reposent sur postulat d'invariance: le principe du reflet autoréférentiel ; ainsi, on peut reformuler la problématique du comment de l'apprentissage en termes de calculabilité ; on montre que tous les coefficients soumis à l'apprentissage sont, en ce sens, calculables. Enfin, le prototype OMAGE montre que le choix de l'approche orientée objet est pertinent pour implémenter les éléments de théorie
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Risset, Tanguy. "Parallélisation automatique : du modèle systolique à la compilation des nids de boucles". Lyon 1, 1994. http://www.theses.fr/1994LYO10033.

Texto completo da fonte
Resumo:
Les techniques developpees par la recherche dans le domaine des architectures systoliques sont tres proches de celle qui servent aujourd'hui a la parallelisation automatique de programmes simples. Cette these etudie ces techniques a travers leurs differentes applications. On etudie d'abord la synthese systolique pure pour des algorithmes de calcul matriciel. Puis on s'interesse a l'extension du modele systolique a une architecture plus generale. On travaille ensuite sur les techniques de programmation simd, en utilisant les resultats obtenus sur les architectures semi-systoliques. On etudie enfin la parallelisation automatique de programmes simples du type boucles imbriquees. On travaille plus particulierement sur les transformations de boucles comme la reecriture de nids de boucle ou le changement de granularite d'un nid de boucles
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Aniorté, Philippe. "Bases d'informations généralisées : modèle agrégatif, version et hypertext". Toulouse 3, 1990. http://www.theses.fr/1990TOU30001.

Texto completo da fonte
Resumo:
Les travaux se situent dans le domaine des systemes integres multimedia. Ils concernent plus particulierement la manipulation d'objets complexes et volumineux, a l'aide du modele agregatif. Compte tenu de la nature des objets manipules les documents le modele est etendu a la gestion de versions et a la consultation hypertext. Apres un etat des recherches dans les domaines de la modelisation et la manipulation des objets complexes, les principaux concepts du modele agregatif sont presentes. La suite est consacree a la manipulation des objets complexes et volumineux. Dans un premier temps, le langage de manipulation associe au modele agregatif est etudie en vue de son implantation. Puis sont detaillees la gestion de versions et la consultation hypertext, au niveau de l'utilisateur et au niveau interne. Enfin, un systeme integrant ces fonctionnalites est propose. L'interface utilisateur de ce systeme et les principaux elements d'implantation dans un environnement relationnel sont presentes
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Huang, Xin. "Querying big RDF data : semantic heterogeneity and rule-based inconsistency". Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB124/document.

Texto completo da fonte
Resumo:
Le Web sémantique est la vision de la prochaine génération de Web proposé par Tim Berners-Lee en 2001. Avec le développement rapide des technologies du Web sémantique, de grandes quantités de données RDF existent déjà sous forme de données ouvertes et liées et ne cessent d'augmenter très rapidement. Les outils traditionnels d'interrogation et de raisonnement sur les données du Web sémantique sont conçus pour fonctionner dans un environnement centralisé. A ce titre, les algorithmes de calcul traditionnels vont inévitablement rencontrer des problèmes de performances et des limitations de mémoire. De gros volumes de données hétérogènes sont collectés à partir de différentes sources de données par différentes organisations. Ces sources de données présentent souvent des divergences et des incertitudes dont la détection et la résolution sont rendues encore plus difficiles dans le big data. Mes travaux de recherche présentent des approches et algorithmes pour une meilleure exploitation de données dans le contexte big data et du web sémantique. Nous avons tout d'abord développé une approche de résolution des identités (Entity Resolution) avec des algorithmes d'inférence et d'un mécanisme de liaison lorsque la même entité est fournie dans plusieurs ressources RDF décrite avec différentes sémantiques et identifiants de ressources URI. Nous avons également développé un moteur de réécriture de requêtes SPARQL basé le modèle MapReduce pour inférer les données implicites décrites intentionnellement par des règles d'inférence lors de l'évaluation de la requête. L'approche de réécriture traitent également de la fermeture transitive et règles cycliques pour la prise en compte de langages de règles plus riches comme RDFS et OWL. Plusieurs optimisations ont été proposées pour améliorer l'efficacité des algorithmes visant à réduire le nombre de jobs MapReduce. La deuxième contribution concerne le traitement d'incohérence dans le big data. Nous étendons l'approche présentée dans la première contribution en tenant compte des incohérences dans les données. Cela comprend : (1) La détection d'incohérence à base de règles évaluées par le moteur de réécriture de requêtes que nous avons développé; (2) L'évaluation de requêtes permettant de calculer des résultats cohérentes selon une des trois sémantiques définies à cet effet. La troisième contribution concerne le raisonnement et l'interrogation sur la grande quantité données RDF incertaines. Nous proposons une approche basée sur MapReduce pour effectuer l'inférence de nouvelles données en présence d'incertitude. Nous proposons un algorithme d'évaluation de requêtes sur de grandes quantités de données RDF probabilistes pour le calcul et l'estimation des probabilités des résultats
Semantic Web is the vision of next generation of Web proposed by Tim Berners-Lee in 2001. Indeed, with the rapid development of Semantic Web technologies, large-scale RDF data already exist as linked open data, and their number is growing rapidly. Traditional Semantic Web querying and reasoning tools are designed to run in stand-alone environment. Therefor, Processing large-scale bulk data computation using traditional solutions will result in bottlenecks of memory space and computational performance inevitably. Large volumes of heterogeneous data are collected from different data sources by different organizations. In this context, different sources always exist inconsistencies and uncertainties which are difficult to identify and evaluate. To solve these challenges of Semantic Web, the main research contents and innovative approaches are proposed as follows. For these purposes, we firstly developed an inference based semantic entity resolution approach and linking mechanism when the same entity is provided in multiple RDF resources described using different semantics and URIs identifiers. We also developed a MapReduce based rewriting engine for Sparql query over big RDF data to handle the implicit data described intentionally by inference rules during query evaluation. The rewriting approach also deal with the transitive closure and cyclic rules to provide a rich inference language as RDFS and OWL. The second contribution concerns the distributed inconsistency processing. We extend the approach presented in first contribution by taking into account inconsistency in the data. This includes: (1)Rules based inconsistency detection with the help of our query rewriting engine; (2)Consistent query evaluation in three different semantics. The third contribution concerns the reasoning and querying over large-scale uncertain RDF data. We propose an MapReduce based approach to deal with large-scale reasoning with uncertainty. Unlike possible worlds semantic, we propose an algorithm for generating intensional Sparql query plan over probabilistic RDF graph for computing the probabilities of results within the query
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Dehdouh, Khaled. "Entrepôts de données NoSQL orientés colonnes dans un environnement cloud". Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22018.

Texto completo da fonte
Resumo:
Le travail présenté dans cette thèse vise à proposer des approches pour construire et développer des entrepôts de données selon le modèle NoSQL orienté colonnes. L'intérêt porté aux modèles NoSQL est motivé d'une part, par l'avènement des données massives et d'autre part, par l'incapacité du modèle relationnel, habituellement utilisés pour implémenter les entrepôts de données, à permettre le passage à très grande échelle. En effet, les différentes modèles NoSQL sont devenus des standards dans le stockage et la gestion des données massives. Ils ont été conçus à l'origine pour construire des bases de données dont le modèle de stockage est le modèle « clé/valeur ». D'autres modèles sont alors apparus pour tenir compte de la variabilité des données : modèles orienté colonne, orienté document et orienté graphe. Pour développer des entrepôts de données massives, notre choix s'est porté sur le modèle NoSQL orienté colonnes car il apparaît comme étant le plus approprié aux traitements des requêtes décisionnelles qui sont définies en fonction d'un ensemble de colonnes (mesures et dimensions) issues de l'entrepôt. Cependant, le modèle NoSQL en colonnes ne propose pas d'opérateurs de type analyse en ligne (OLAP) afin d'exploiter les entrepôts de données.Nous présentons dans cette thèse des solutions innovantes sur la modélisation logique et physique des entrepôts de données NoSQL en colonnes. Nous avons proposé une approche de construction des cubes de données qui prend compte des spécificités de l'environnement du stockage orienté colonnes. Par ailleurs, afin d'exploiter les entrepôts de données en colonnes, nous avons défini des opérateurs d'agrégation permettant de créer des cubes OLAP. Nous avons proposé l'opérateur C-CUBE (Columnar-Cube) permettant de construire des cubes OLAP stockés en colonnes dans un environnement relationnel en utilisant la jointure invisible. MC-CUBE (MapReduce Columnar-Cube) pour construire des cubes OLAP stockés en colonnes dans un environnement distribué exploitant la jointure invisible et le paradigme MapReduce pour paralléliser les traitements. Et enfin, nous avons développé l'opérateur CN-CUBE (Columnar-NoSQL Cube) qui tient compte des faits et des dimensions qui sont groupés dans une même table lors de la génération de cubes à partir d'un entrepôt dénormalisé selon un certain modèle logique. Nous avons réalisé une étude de performance des modèles de données dimensionnels NoSQL et de nos opérateurs OLAP. Nous avons donc proposé un index de jointure en étoile adapté aux entrepôts de données NoSQL orientés colonnes, baptisé C-SJI (Columnar-Star Join Index). Pour évaluer nos propositions, nous avons défini un modèle de coût pour mesurer l'impact de l'apport de cet index. D'autre part, nous avons proposé un modèle logique baptisé FLM (Flat Logical Model) pour implémenter des entrepôts de données NoSQL orientés colonnes et de permettre une meilleure prise en charge par les SGBD NoSQL de cette famille.Pour valider nos différentes contributions, nous avons développé une plate-forme logicielle CG-CDW (Cube Generation for Columnar Data Warehouses) qui permet de générer des cubes OLAP à partir d'entrepôts de données en colonnes. Pour terminer et afin d'évaluer nos contributions, nous avons tout d'abord développé un banc d'essai décisionnel NoSQL en colonnes (CNSSB : Columnar NoSQL Star Schema Benchmark) basé sur le banc d'essai SSB (Star Schema Benchmark), puis, nous avons procédé à plusieurs tests qui ont permis de montrer l'efficacité des différents opérateurs d'agrégation que nous avons proposé
The work presented in this thesis aims at proposing approaches to build data warehouses by using the columnar NoSQL model. The use of NoSQL models is motivated by the advent of big data and the inability of the relational model, usually used to implement data warehousing, to allow data scalability. Indeed, the NoSQL models are suitable for storing and managing massive data. They are designed to build databases whose storage model is the "key/value". Other models, then, appeared to account for the variability of the data: column oriented, document oriented and graph oriented. We have used the column NoSQL oriented model for building massive data warehouses because it is more suitable for decisional queries that are defined by a set of columns (measures and dimensions) from warehouse. However, the NoSQL model columns do not offer online analysis operators (OLAP) for exploiting the data warehouse.We present in this thesis new solutions for logical and physical modeling of columnar NoSQL data warehouses. We have proposed a new approach that allows building data cubes by taking the characteristics of the columnar environment into account. Thus, we have defined new cube operators which allow building columnar cubes. C-CUBE (Columnar-CUBE) for columnar relational data warehouses. MC-CUBE (MapReduce Columnar-CUBE) for columnar NoSQL data warehouses when measures and dimensions are stored in different tables. Finally, CN-CUBE (Columnar NoSQL-CUBE) when measures and dimensions are gathered in the same table according a new logical model that we proposed. We have studied the NoSQL dimensional data model performance and our OLAP operators, and we have proposed a new star join index C-SJI (Columnar-Star join index) suitable for columnar NoSQL data warehouses which store measures and dimensions separately. To evaluate our contribution, we have defined a cost model to measure the impact of the use of this index. Furthermore, we have proposed a logic model called FLM (Flat Logical Model) to represent a data cube NoSQL oriented columns and enable a better management by columnar NoSQL DBMS.To validate our contributions, we have developed a software framework CG-CDW (Cube Generation for Data Warehouses Columnar) to generate OLAP cubes from columnar data warehouses. Also, we have developed a columnar NoSQL decisional benchmark CNSSB (Columnar NoSQL Star Schema Benchmark) based on the SSB and finally, we conducted several tests that have shown the effectiveness of different aggregation operators that we proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Signes, Nathalie. "Définition et évaluation d'une machine abstraite dédiée à la compilation d'un modèle d'exécution répartie pour le langage Prolog". Toulouse 3, 1993. http://www.theses.fr/1993TOU30055.

Texto completo da fonte
Resumo:
Coala (calculateur oriente acteurs pour la logique et ses applications) a pour but de mettre en uvre et de supporter efficacement le parallelisme inherent au langage prolog, sans l'intervention du programmeur. Le modele d'execution repartie sous-jacent a l'architecture utilise le graphe de connexion et/ou de r. Kowalski comme representation interne des textes prolog. L'etude d'une approche compilee du modele d'execution repartie a conduit a la definition d'une machine abstraite specifique au projet coala et baptisee ciam (coala inference abstract machine). Le principe general est de traduire un arc du graphe et son comportement en une sequence d'instructions elementaires. L'organisation du code au sein de la machine abstraite ciam se presente sous forme d'ensemble de blocs: les blocs acteurs et les blocs de donnees. Grace a la definition de cette machine abstraite ciam, la version compilee du modele d'execution de coala est actuellement operationnelle sur un reseau tridimensionnel cyclique de 36 transputers: la maquette hypertore. Ce qui a permis de realiser un ensemble de mesures de performance autour de quelques programmes prolog significatifs. Ces mesures ont demontre un gain d'un facteur plus important pour les programmes prolog ayant un grand nombre d'assertions. Ce resultat favorable nous permet d'envisager un systeme prolog plus specialise pour les applications prolog-base de donnees
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Gaïeb, Mohamed Sémi. "Modèle et langage pour la spécification d'architectures basées sur les bus logiciels à messages". Nice, 2001. http://www.theses.fr/2001NICE5631.

Texto completo da fonte
Resumo:
Les logiciels font de plus en plus appel au parallélisme et aux composants distribués. Ces notions ont été petit à petit introduites dans les langages de programmation (ADA, JAVA) ou donné lieu au développement de langages spécialisés et de middlewares. Cependant, il existe peu d’outils de conception de haut niveau pour de tels programmes. Dans cette thèse, nous proposons un modèle de communication basée sur les bus logiciels à messages et un langage de spécification des interactions entre objets de type réactifs asynchrones distribués nommé ROL (Reactive Object Language) ; Ce langage permet la spécification du réseau que forment ces objets et leurs réactions aux messages qu’ils reçoivent. Les spécifications ROL sont totalement indépendantes de l’implantation. Pour leur exécution, nous proposons une traduction vers le langage objet JAVA. Actuellement, la partie configuration de l’application est laissée à la charge du programmeur. En spécifiant deux applications WEB parallèles asynchrones et distribuées existantes (HERMES et BROADWAYV2) avec notre langage ROL, nous montrons que sa syntaxe déclarative permet de simplifier la programmation et l maintenance de systèmes composés d’objets réactifs par rapport à une approche basée sur un langage à objets traditionnel
Software use more and more often parallelism and distributed components. These concepts were gradually introduced into programming languages (ADA, JAVA) or give place to the development of specialized languages and middlewares. However, there are a few tools of high level design for such programs. In this thesis, we propose a model of communication based on the messaging software buses and a language for the specification of interactions between distributed objects of the asynchronous reactive type named Reactive Object Language (ROL). This language allows the specification of the network which forms these objects and their reactions to the messages that they receive. The ROL specifications are implementation-independent. For their execution, we propose a translation into the object language JAVA. Currently, the configuration part of the application is lefts on the programmer. By specifying two existing parallel WEB applications asynchronous and distributed (HERMES and BROADWAYV2) with our language ROL, we show that its declaratory syntax makes it possible to simplify the programming and the maintenance of systems made up of reactive objects compared to an approach based on a traditional object language
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Brunette, Christian. "Construction et simulation graphiques de comportements : le modèle des Icobjs". Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://tel.archives-ouvertes.fr/tel-00327441.

Texto completo da fonte
Resumo:
Intuitivement, une simulation graphique (monde virtuel, jeu,...) peut etre vue comme un espace borne dans lequel plusieurs entites, disposant chacune d'un comportement propre, evoluent en parallele. Il parait donc naturel d'utiliser des langages concurrents pour programmer ces comportements. Cependant, c'est rarement le cas pour des raisons de complexite de programmation et de deboguage, de non-determinisme et d'efficacite. Nous proposons d'utiliser l'Approche Reactive introduite par F. Boussinot qui permet de definir clairement les comportements d'entites graphiques. Nous avons enrichi les Icobjs qui est un modele d'objets reactifs graphiques. Il offre la possibilite a des non-specialistes de construire graphiquement des comportements complexes a partir de comportements simples et de constructeurs graphiques. Nous avons realise une implementation dont l'objet central est Icobj. Il definit une structure minimale dynamiquement extensible pour permettre une construction graphique generique. Un icobj particulier, le Workspace, execute et affiche les icobjs qu'il contient. Les comportements sont executes par un moteur reactif dedie aux Icobjs appele Reflex. Il reprend les principales primitives du formalisme Junior en modifiant la semantique de certaines instructions et en y ajoutant de nouvelles. Toutes les instructions sont formalisees par des regles de reecritures au format SOS. De plus, nous avons developpe un environnement qui permet d'interagir dynamiquement avec les simulations. Enfin, nous presentons quelques experimentations autour de l'utilisation des Icobjs dans le cadre de simulations distribuees, de simulations physiques ou de simulations multi-horloges.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Kharrazen, Essaïd. "PSILISP, un modèle d'interprétation parallèle de programmes LISP". Paris 11, 1986. http://www.theses.fr/1986PA112385.

Texto completo da fonte
Resumo:
PSILISP comprend la définition d’un langage dérivé de LISP et d’une implémentation de ce langage sur une architecture multiprocesseur de type MIMD à mémoire partagée. Les principales caractéristiques de ce langage sont : portée lexicale des identificateurs, appel des arguments par valeur, évaluation parallèle explicite des arguments d’une application, primitives sans effet de bord. PSILISP étend LISP par l’introduction des « applications parallèles ». Leur évaluation se traduit par une exploitation massive des processeurs pour le calcul en parallèle des arguments. PSILISP utilise la portée lexicale. Ce choix permet d’éviter les défauts sémantiques caractérisant la plupart des implémentations actuelles de LISP. De plus, l’implémentation des environnements qui en résulte, se prête mieux à la gestion du parallélisme. PSILISP apporte une solution au problème du Funarg ascendant par rétention des environnements. Il en résulte que les fonctions sont des objets à part entière. L’expérience PSILISP montre qu’il est possible d’accroitre considérablement la vitesse d’exécution des programmes LISP par l’exploitation du parallélisme
PSILISP comprises the definition of a language derived from LISP and its implementation on an MIMD parallel architecture with shared memory. The main features of PSILISP are: lexically scoped variables, call by value, explicit parallel evaluation of the arguments of an application, primitives with no side effects. PSILISP language extends LISP by the new “parallel application” construct. Its evaluation leads to intensive use of the processors for the parallel computation of the arguments. PSILISP uses lexically scoped variables. This choice avoids the semantical defects that are common to the usual implementations of LISP. Furthermore, the implementation in this case lends itself better to the management of parallel evaluation. PSILISP brings a solution to the Funarg problem by environment retention. Functions become thus members of first class citizens. The PSILISP experience demonstrates that the efficiency of LISP programs can be increased considerably by use of the parallelism
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Ferhat, Abdelhamid. "Méthodes interactives en programmation mathématique multicritère utilisant des relations de surclassement comme modèle de préférence". Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090010.

Texto completo da fonte
Resumo:
Cette thèse s'articule autour de deux axes de recherche : le premier axe concerne les problèmes d'analyse multicritère. Nous proposons une nouvelle méthode interactive en programmation linéaire multicritère (PLM) dont l'idée directrice en programmation (PLM) est d'utiliser un échantillon de points non dominés. A partir duquel, on construira une relation binaire de sur classement. Celle-ci est considérée comme un modèle de préférence qui permet de réduire l'échantillon au noyau de la relation de sur classement. A l'étape de calcul de la méthode interactive proposée, nous développons une nouvelle procédure de génération de points non dominés. Des tests effectués sur des échantillons générés aléatoirement ont montré l'efficacité et la supériorité de notre stratégie de choix d'une base réalisable par rapport à l'utilisation de la post-optimisation de cplex 3. 1. Le deuxième axe de recherche a pour objet l'étude de récents travaux sur l'utilisation de méthodes intérieures en (PLM). Nous proposons une nouvelle approche primale-duale pour la (PLM) celle-ci présente un intérêt théorique
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Foisel, Rémy. "Modèle de réorganisation de systèmes multi-agents : une approche descriptive et opérationnelle". Nancy 1, 1998. http://docnum.univ-lorraine.fr/public/SCD_T_1998_0287_FOISEL.pdf.

Texto completo da fonte
Resumo:
Cette thèse, effectuée au sein de l'équipe RFIA (Reconnaissance des Formes et Intelligence Artificielle) du LORIA, présente le résultat de notre travail sur l'étude des interactions et de leur réorganisation pour la construction de systèmes multi-agents. Notre travail s'est articulé autour de deux phases complémentaires qui correspondent à la proposition d'un modèle de réorganisation des intéractions et la définition d'un formalisme de description de systèmes. Ce formalisme de description est évidemment couplé à des mécanismes permettant une opérationnalisation des systèmes décrits. La première partie présente les différents concepts relatifs aux systèmes multi-agents. Nous y montrons la diversité des concepts (agents, interaction et organisation) et la nécessité de leur formalisation à differents niveaux de description (locale, semi-globale et globale). Une description de système est considérée comme l'agrégation de ces niveaux de description. La deuxième partie propose un modèle pour la formalisation de description de système en prenant en compte ces concepts, ainsi que les mécanismes permettant d'opérationnaliser cette description. Nous définissons ainsi un cadre de description de systèmes multi-agents permettant la définition de société d'agents hétérogènes et son opérationnalisation sous la forme d'un ensemble d'agents autonomes. Ce cadre de description met l'accent sur la modularité et la réutilisation des concepts décrits tout en proposant un modèle de réorganisation pour la gestion des intéractions entre des agents autonomes. Ce modèle de réorganisation se fonde sur une adaptation locale des croyances de chaque agent. Cette adaptation utilise une notion de préférence associée à des schémas d'interaction. Les schémas expriment la réalisation des interactions ainsi que l'évaluation du bénéfice lié à leurs utilisations, ce qui permet éventuellement de modifier la préférence qui caractérise chacun de ces schémas. La troisième partie débute par une présentation des expérimentations préliminaires que nous avons éffectuées à partir de GTMAS sur le modèle de réorganisation. Ces expérimentations montrent ainsi les propriétés d'adaptation qu'offre notre modèle à des systèmes multi-agents. Nous présentons ensuite une plate-forme, basée sur notre approche descriptive et opérationnelle pour la construction de systèmes, JAVAMA. Nous illustrons l'utilisation de cette plate-forme sur deux exemples à partir desquels nous proposons une évaluation de la plate-forme par rapport à d'autres outils existant et envisageons diverses améliorations.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Rose-Andrieux, Raphaël. "Modèle probabiliste hérarchique de la locomotion bipède". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE031/document.

Texto completo da fonte
Resumo:
Les robots humanoïdes ont toujours fasciné car leur potentiel d’application est considérable. En effet, si un robot avait les mêmes caractéristiques sensori-motrices et morphologiques qu’un homme, il pourrait théoriquement réaliser les mêmes tâches. Cependant, un premier obstacle au développement de ces robots est la stabilité d’une posture bipède. Lors d’une marche bipède, la marge d’erreur est très faible et les décisions doivent être prises rapidement avec une information souvent incomplète et incertaine. L’incertitude a de multiples sources comme des capteurs imparfaits, un modèle simplifié du monde ou encore une mécanique imprécise.Dans cette thèse, nous partons d’un contrôle de la marche par gestion des points d’appuis. L’idée est d’affiner le choix des points d’appuis en intégrant dans notre modèle les incertitudes que l’on vient d’évoquer. Pour cela, nous allons utiliser un modèle probabiliste Bayésien. A l’aide d’une distribution de probabilité, on peut exprimer simultanément une estimation, et l’incertitude associée à celle-ci. Le cadre théorique des probabilités Bayésiennes permet de définir les variables, et de les intégrer de manière rigoureuse dans un modèle global.Un autre avantage de ce modèle probabiliste est que notre objectif est aussi décrit sous la forme d’une distribution de probabilité. Il est donc possible de s’en servir pour exprimer à la fois un objectif déterministe, et une tolérance autour de celui-ci. Cela va nous permettre de fusionner facilement plusieurs objectifs et de les adapter automatiquement en fonction des contraintes extérieures. De plus, la sortie du modèle étant elle aussi une distribution de probabilité, ce type de modèle s’intègre parfaitement dans un cadre hiérarchique : l’entrée du modèle vient du niveau au-dessus et sa sortie est donnée en objectif niveau en dessous.Dans ce travail, nous allons d’abord explorer une technique de maintien de l’équilibre et la comparer aux résultats d’une expérience préliminaire sur l’homme. Nous allons ensuite étendre cette technique pour créer une stratégie de marche. Autour de cette stratégie, nous allons construire un modèle probabiliste Bayésien. Ce modèle sera finalement implémenté en simulation pour pouvoir quantifier son intérêt dans les différentes situations évoquées plus haut : intégration des incertitudes, fusion d’objectifs et hiérarchie
Humanoid robots have always fascinated due to the vast possibilities they encompass.Indeed, a robot with the same sensorimotor features as a human could theoretically carry out the same tasks. However, a first obstacle in the development of these robots is the stability of a bipedal gait. Bipedal walkers are inherently unstable systems experiencing highly dynamic and uncertain situations. Uncertainty arises from many sources, including intrinsic limitations of a particular model of the world, the noise and perceptual limitations in a robot's sensor measurements, and the internal mechanical imperfection of the system.In this thesis, we focus on foot placement to control the position and velocity of the body's center of mass. We start from a deterministic strategy, and develop a probabilistic strategy around it that includes uncertainties. A probability distribution can express simultaneously an estimation of a variable, and the uncertainty associated. We use a Bayesian model to define relevant variables and integrate them in the global frame.Another benefit of this model is that our objective is also represented as a probability distribution. It can be used to express both a deterministic objective and the tolerance around it. Using this representation one can easily combine multiple objectives and adapt them to external constraints. Moreover, the output of the model is also a probabilistic distribution which fits well in a hierarchical context: the input comes from the level above and the output is given as objective to the lower level.In this work, we will review multiple ways to keep balance and compare them to the results of a preliminary experiment done with humans. We will then extend one strategy to walking using foot placement to keep balance. Finally, we will develop a probabilistic model around that strategy and test it in simulation to measure its benefits in different contexts : integrating uncertainties, fusing multiple objectives and hierarchy
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Bourzoufi, Abdelhafid. "Définition et évaluation d'une machine abstraite parallèle pour un modèle OU-parallèle multi-séquentiel de PROLOG". Lille 1, 1992. http://www.theses.fr/1992LIL10021.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia