Dissertations / Theses on the topic 'Connaissance distribuée'

To see the other types of publications on this topic, follow the link: Connaissance distribuée.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Connaissance distribuée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Boucher, Alain. "Une approche décentralisée et adaptative de la gestion d'informations en vision ; application à l'interprétation d'images de cellules en mouvement." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004805.

Full text
Abstract:
Cette thèse propose une nouvelle approche de la vision par ordinateur, insistant sur le rôle joué par les différentes informations et connaissances présentes dans un système intégré de vision. Ces connaissances peuvent être vues comme un but à atteindre dans la chaine de traitement ou comme un instrument pour guider ces différents traitement. Ce double rôle est mis en évidence en insistant sur la gestion des informations disponibles à tout moment pour effectuer la tâche de reconnaissance. Une approche distribuée est proposée, sous la forme d'un système multi-agents, où chaque agent est spécialisé pour la reconnaissance d'un concept de l'image. Le modèle générique d'agent est composé de quatre comportements de base : perception (croissance de région, suivi de contour), interaction (fusion de primitives), différenciation (interprétation de primitive) et reproduction (stratégie de focalisation des agents). Ces comportements prennent des décisions à l'aide d'évaluations multi-critères, faisant référence à plusieurs critères spécialisés. Des capacités d'adaptation et de coopération sont nécessaires aux agents pour mener à bien leurs tâches, et ce tant au niveau local qu'au niveau des groupes d'agents (travaillant sur un même groupement perceptuel). Ce système est appliqué pour la reconnaissance des cellules en mouvement. Chaque cellule est divisée en plusieurs composantes (noyau, pseudopode, cytoplasme, ...) qui servent de concepts de base pour la spécialisation des agents.
APA, Harvard, Vancouver, ISO, and other styles
2

Fiolet, Valérie. "Algorithmes distribués d'extraction de connaissances." Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Fiolet.pdf.

Full text
Abstract:
Afin d'exploiter au mieux les ressources de traitement disponibles de type grille de calcul, pour la résolution de problèmes de data mining, il apparaît nécessaire de concevoir de nouveaux algorithmes spécialement adaptés à ce type d'architecture, et prenant en compte les spécifités d'exécution distribuée. Le projet DisDaMin (Distributed Data Mining) développé dans cette thèse, vise à proposer des solutions pour certains problèmes de data mining, tels que le problème de génération de règles d'association ou le problème de clustering (classification non supervisée). Pour le problème spécifique de génération de règles d'association, nous suggérons l'utilisation d'un partitionnement "intelligent" des données. Ce partitionnement intelligent peut être obtenu par clustering. Nous présentons donc un nouvel algorithme de clustering, appelé Clustering Distribué Progressif, qui exécute un clustering de manière progressive distribuée et efficace respectant les contraintes d'exécution sur grille de calculs. Les clusters de données issus de ce clustering sont par la suite utilisés pour des tâches de data mining. En particulier, les clusters sont utilisés, dans le travail présenté, pour aider à la résolution du problème de génération de règles d'association, afin d'en réduire la complexité de traitement. Nous introduisons un algorithme distribué pour le problème des règles d'association, appelée DICCoop (DIC Coopératif) et basé en partie sur l'utilisation du partitionnement "intelligent". Chacun des algorithmes présentés est suivi d'un résumé des expérimentations qui ont permis de les valider comme heuristiques de data mining. Enfin, une synthèse des concepts distribués exploités dans les deux méthodes présentées conclut la présentation.
APA, Harvard, Vancouver, ISO, and other styles
3

Taboada, Orozco Adrian. "Distributed Knowledge in the Building Management Systems Architecture for Smart Buildings." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2022. http://www.theses.fr/2022UBFCK114.

Full text
Abstract:
L'avenir des villes est en jeu. Au cours des dernières décennies, la répartition de la population s'est considérablement modifiée. Depuis 1980, les modes de cohabitation sont remis en cause par le passage de l'exode rural à l'exode urbain. Les villes abritent désormais 60 % de la population mondiale. Cette concentration massive de personnes, sans anticipation, a entraîné une mauvaise connectivité, des transports inadaptés, une concentration de la pollution, une sécurité inadéquate et un gaspillage énergétique. Par conséquent, assurer la croissance durable des villes nécessite des ruptures technologiques évolutives qui doivent apporter une meilleure qualité de vie sans appauvrir les ressources. La principale préoccupation des villes est la gestion de la question énergétique, notamment dans les bâtiments, qui représentent 40 % d'énergie dans la consommation totale des villes. Cette thèse aborde le domaine émergent du Smart Building. L'objectif principal est de travailler vers le concept de Building Operating Systems (BOS). BOS est un système piloté par les données qui facilite et permet le développement d'applications orientées Bâtiment. Nos études ont identifié que le principal obstacle au développement du BOS est l'intégration des données et le manque de contexte dans un système de gestion du bâtiment (BMS) naturellement et physiquement dispersé. Le BMS est le système sous-jacent qui prend en charge les services dans le bâtiment, et sa compréhension de ses caractéristiques est fondamentale pour atteindre l'objectif principal de cette thèse. Les résultats de cette recherche servent de base pour concevoir l'approche principale appelée WITTYM. Elle vise à créer et diffuser des connaissances sur les bâtiments en tirant parti du Building Information Modeling (BIM) et d'autres sources de données hétérogènes (IoT). L'approche WITTYM est une conjonction d'ontologies, de connaissances et de méthodes de distribution. L'approche WITTYM est évaluée à travers des hypothèses de recherche sur des cas d'utilisation métiers. Les résultats ont montré une optimisation du BMS pour l'intégration des données, les applications, la sécurité et la réponse décisionnelle. Notre travail pose les bases de recherches futures et d'applications de systèmes à plusieurs niveaux dans les bâtiments intelligents
The future of cities is at stake. Over the previous few decades, the population distribution has shifted substantially. Since 1980, people's ways of cohabiting have been challenged by the change from rural to urban migration. Cities now hold 60 % of the world's population. This massive concentration of people has resulted in poor connectivity, ineffective transportation, pollution, inadequate security, and energy waste. As a result, ensuring the sustainable growth of cities necessitates scalable technological breakthroughs that must give quality of life while maximizing resources. The main concern in cities is dealing with energy waste, especially in buildings, which represent 40 % of energy in the total consumption of cities.Therefore, this thesis addresses the emergent Smart Building field. The main goal is to work toward the concept of Building Operating Systems (BOS). BOS is a data-driven system that facilitates and enables the development of applications. Our studies have identified that the main barrier to BOS development is the integration of data and lack of context in a naturally and physically dispersed Building Management System (BMS). BMS is the underlying system that supports services in Building, and its understanding of its features is fundamental to achieving the main goal of this thesis. Therefore, this thesis first reviews the Smart Building field and then focuses on the BMS architecture. The results of the review serve as the basis for conceiving the main approach of this thesis, which is the WITTYM Approach. It aims to create and distribute buildings' knowledge by leveraging Building Information Modeling (BIM) and other heterogeneous data sources. WITTYM Approach is a conjunction of Ontologies, Knowledge, and Distribution Methods. The WITTYM Approach is evaluated through research hypotheses over use cases. Results have shown an optimization of BMS for data integration, applications, security, and decision-making response. Our work sets the basis for further research and applications on BMS
APA, Harvard, Vancouver, ISO, and other styles
4

Naudin, Antoine. "Impact des connaissances initiales sur la calculabilité distribuée." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0259/document.

Full text
Abstract:
Dans cette thèse, nous étudions l’impact des connaissances sur la calculabilité distribuée de problèmes au sein des réseaux distribués. Dans une première partie, nous caractérisons les connaissances nécessaires et suffisantes permettant de résoudre des problèmes tels la cartographie, l’élection et la k-élection dans un modèle particulier: les participants inconnus. Pour chacun des problèmes étudiés, une condition caractérisant les connaissances nécessaires et suffisantes est fournie et un algorithme utilisant toute connaissance satisfaisant notre condition est proposé (et montré correct). Nous étendons ensuite le modèle aux graphes anonymes. Avec la même méthodologie, nous présentons une condition nécessaire sur la connaissance à fournir aux processus pour résoudre le problème de l’élection. Dans la seconde partie, nous étudions l’impact des connaissances locales sur la calculabilité du problème de l’exploration de graphes anonymes avec arrêt. Nous introduisons un nouveau modèle d’agent mobile doté d’un capteur spécial, nommé jumelles, lui permettant de percevoir le graphe induit par les sommets adjacent à sa position dans le réseau. Dans ce modèle, nous caractérisons exactement les graphes explorables sans connaissance globale et nous proposons un algorithme les explorant. Cette connaissance locale apportée à un coût car la complexité de tout algorithme d’exploration pour ces graphes croît plus vite que toute fonction calculable. Pour finir, nous montrons que de larges familles de graphes peuvent être explorées efficacement avec jumelles: graphes triangulés, graphes de Johnson et certaines triangulations planaires
In this study, we show how knowledge impacts the computability in distributed systems. First, we characterize what we need to know to elect in the unknown participant model. This model is a natural extension for the message passing model that formalises dynamicity that occurs in some networks. We give a necessary and sufficient condition on the knowledge needed to solve the following fundamental problems : map construction, leader election and k-leader election. For each of them, we provide an algorithm solving the problem using any knowledge satisfying our condition. Then, we extend the model to anonymous networks. We characterize, with the same methodology, the knowledge needed to solve an election in this model and we provide an algorithm using such a knowledge and a bound on the size of the network. In the second part, we study the impact of local knowledge on the computability of the anonymous graph exploration problem. We introduce a new model of mobile agents where an agent is endowed with binoculars, a local sensor permitting to perceive the graph induced by the vertices adjacent to its location. In this model, we characterize the graphs that can be explored by a single mobile agent without any global information and we provide an algorithm exploring all of them. Unfortunately, universal algorithm has a cost : The number of moves required by such an algorithm cannot be bounded by a computable function. Finally, we prove that large classes of graphs like chordal graphs, Johnson graphs, . . . can be explored in a linear number of moves using binoculars by providing an exploration algorithm for the family of Weetman graphs
APA, Harvard, Vancouver, ISO, and other styles
5

Armant, Vincent. "Diagnostic distribué de systèmes respectant la confidentialité." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00763370.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à diagnostiquer des systèmes intrinsèquement distribués (comme les systèmes pairs-à-pairs) où chaque pair n'a accès qu'à une sous partie de la description d'un système global. De plus, en raison d'une politique d'accès trop restrictive, il sera pourra qu'aucun pair ne puisse expliquer le comportement du système global. Dans ce contexte, le challenge du diagnostic distribué est le suivant: expliquer le comportement global d'un système distribué par un ensemble de pairs ayant chacun une vision limitée, tout comme l'aurait fait un unique pair diagnostiqueur ayant, lui, une vision globale du système.D'un point de vue théorique, nous montrons que tout nouveau système, logiquement équivalent au système pair-à-pairs initialement observé, garantit que tout diagnostic local d'un pair pourra être prolongé par un diagnostic global (dans ce cas, le nouveau système est dit correct pour le diagnostic distribué).Nous montrons aussi que si ce nouveau système est structuré (c-à-d: il contient un arbre couvrant pour lequel tous les pairs contenant une même variable forme un graphe connecté) alors il garantit que tout diagnostic global pourra être retrouvé à travers un ensemble de diagnostics locaux des pairs (dans ce cas le nouveau système est dit complet pour le diagnostic distribué).Dans un souci de représentation succincte et afin de respecter la politique de confidentialité du vocabulaire de chacun des pairs, nous présentons un nouvel algorithme Token Elimination (TE), qui décompose le système de pairs initial vers un système structuré.Nous montrons expérimentalement que TE produit des décompositions de meilleurs qualité (c-à-d: de plus petites largeurs arborescentes) que les méthodes envisagées dans un contexte distribué. À partir du système structuré construit par TE, nous transformons chaque description locale en une Forme Normale Disjonctive (FND) globalement cohérente.Nous montrons que ce dernier système garantit effectivement un diagnostic distribué correct et complet. En plus, nous exhibons un algorithme capable de vérifier efficacement que tout diagnostic local fait partie d'un diagnostic minimal global, faisant du système structuré de FNDs un système compilé pour le diagnostic distribué.
APA, Harvard, Vancouver, ISO, and other styles
6

Gaignard, Alban. "Partage et production de connaissances distribuées dans des plateformes scientifiques collaboratives." Phd thesis, Université de Nice Sophia-Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00827926.

Full text
Abstract:
Cette thèse s'intéresse à la production et au partage cohérent de connaissances distribuées dans le domaine des sciences de la vie. Malgré l'augmentation constante des capacités de stockage et de calcul des infrastructures informatiques, les approches centralisées pour la gestion de grandes masses de données scientifiques multi-sources deviennent inadaptées pour plusieurs raisons: (i) elles ne garantissent pas l'autonomie des fournisseurs de données qui doivent conserver un certain contrôle sur les don- nées hébergées pour des raisons éthiques et/ou juridiques, (ii) elles ne permettent pas d'envisager le passage à l'échelle des plateformes en sciences computationnelles qui sont la source de productions massives de données scientifiques. Nous nous intéressons, dans le contexte des plateformes collaboratives en sci- ences de la vie NeuroLOG et VIP, d'une part, aux problématiques de distribution et d'hétérogénéité sous-jacentes au partage de ressources, potentiellement sensibles ; et d'autre part, à la production automatique de connaissances au cours de l'usage de ces plateformes, afin de faciliter l'exploitation de la masse de données produites. Nous nous appuyons sur une approche ontologique pour la modélisation des connaissances et pro- posons à partir des technologies du web sémantique (i) d'étendre ces plateformes avec des stratégies efficaces, statiques et dynamiques, d'interrogations sémantiques fédérées et (ii) d'étendre leur environnent de traitement de données pour automatiser l'annotation sémantique des résultats d'expérience "in silico", à partir de la capture d'informations de provenance à l'exécution et de règles d'inférence spécifiques au domaine. Les résultats de cette thèse, évalués sur l'infrastructure distribuée et contrôlée Grid'5000, apportent des éléments de réponse à trois enjeux majeurs des plateformes collaboratives en sciences computationnelles : (i) un modèle de collaborations sécurisées et une stratégie de contrôle d'accès distribué pour permettre la mise en place d'études multi-centriques dans un environnement compétitif, (ii) des résumés sémantiques d'expérience qui font sens pour l'utilisateur pour faciliter la navigation dans la masse de données produites lors de campagnes expérimentales, et (iii) des stratégies efficaces d'interrogation et de raisonnement fédérés, via les standards du Web Sémantique, pour partager les connaissances capitalisées dans ces plateformes et les ouvrir potentiellement sur le Web de données.
APA, Harvard, Vancouver, ISO, and other styles
7

Lahoud, Inaya. "Un système multi-agents pour la gestion des connaissances hétérogènes et distribuées." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-00977758.

Full text
Abstract:
La gestion des connaissances permet d'identifier et de capitaliser les savoirs faires de l'entreprise afin de les organiser et de les diffuser. Cette thèse propose un système de gestion des connaissances hétérogènes et distribuées, appelé OCEAN. Basé sur les ontologies et sur un système multi-agents, OCEAN a pour but de résoudre le problème de la capitalisation et de réutilisation des connaissances provenant de plusieurs sources différentes, afin d'aider les acteurs métiers dans le processus de développement de produits mécaniques. Le système OCEAN repose sur un cycle de vie de quatre étapes Ce cycle de vie possède les phases : d'identification, d'extraction, de validation et se termine par la réutilisation des connaissances. Chaque phase constitue l'objectif d'une organisation d'agents.L'identification dans le système OCEAN consiste à définir les connaissances par un expert métier sous la forme d'une ontologie. Les ontologies sont utilisées dans notre système pour représenter les connaissances définis d'une façon structurée et formelle afin d'être compréhensible par les machines. L'extraction des connaissances dans OCEAN est réalisée par les agents de manière automatique à l'aide des ontologies créées par les experts métiers. Les agents interagissent avec les différentes applications métiers via des services web. Le résultat de cette phase est stocké dans une mémoire organisationnelle. La validation des connaissances consiste à permettre aux acteurs métiers de valider les connaissances de la mémoire organisationnelle dans un wiki sémantique. Ce wiki permet de présenter les connaissances de la mémoire organisationnelle aux acteurs pour les réutiliser, les évaluer et les faire évoluer. La réutilisation des connaissances dans OCEAN est inspiré de travaux antérieurs intégrés au sein d'OCEAN. Les quatre phases du cycle de vie des connaissances traitées dans cette thèse nous ont permis de réaliser un système apte à gérer les connaissances hétérogènes et distribuées dans une entreprise étendue.
APA, Harvard, Vancouver, ISO, and other styles
8

Dussart, Claude. "Méta-apprentissage dans un environnement d'expériences distribuées." Lyon 1, 2002. http://www.theses.fr/2002LYO10118.

Full text
Abstract:
Dans certains domaines de la vie économique, notamment dans le domaine de la santé, de nombreuses expériences réparties dans le temps et/ou dans l'espace traitent d'un même sujet et y apportent leur éclairage. De chaque expérience, on peut élaborer une prédiction, une connaissance selon différentes techniques d'apprentissage. La problématique de notre travail vise à répondre à la question suivante : comment traiter automatiquement les résultats obtenus par apprentissage sur des expériences distribuées ? Le méta-apprentissage répond à cette question. Il s'agit d'élaborer une méta-connaissance. Cette méta-connaissance permet de définir une prédiction finale mais aussi d'expliquer les variations observées sur les prédictions issues de chaque apprentissage. Classiquement, le méta-apprentissage peut alors être conduit selon trois stratégies : la stratégie par vote, par combinaison et par arbitrage. Après avoir développé ces trois stratégies, en apportant une attention particulière à la stratégie par vote trop souvent négligée, nous proposons un stratégie novatrice : la stratégie méta-analytique qui permet d'élaborer de la méta-connaissance à partir d'expériences distribuées et indépendantes. Un outil de médiation dans la recherche d'information a été par ailleurs développé afin d'optimiser notre stratégie. Une expérimentation est menée en étudiant l'efficacité d'une molécule, la STbr, utilisée afin d'augmenter la production laitière.
APA, Harvard, Vancouver, ISO, and other styles
9

RAHALI, ILHAM. "L'administration de reseaux : approche conceptuelle et environnement a base de connaissances distribuees." Paris 6, 1990. http://www.theses.fr/1990PA066283.

Full text
Abstract:
L'administration d'un systeme englobe l'ensemble des moyens mis en uvre pour offrir aux utilisateurs un service de qualite et permettre l'evolution du systeme en incluant de nouvelles fonctionnalites. Elle vise a optimiser les performances des services pour les utilisateurs et a permettre une utilisation maximale des ressources a un cout minimal. Cette administration n'est pas simple a mettre en uvre dans le cas des reseaux teleinformatiques qui connaissent une evolution permanente, deviennent de plus en plus complexes et se composent generalement d'elements d'origine diverse, de conception et technologie differentes. Dans le cadre de cette these, nous avons propose un modele conceptuel s'appuyant sur des techniques de modelisation de systemes d'information et des travaux effectues au sein de l'iso. Ce modele a pour but d'aider dans l'organisation des roles et taches d'un systeme d'administration de reseaux. Il permet d'assister le concepteur de ce systeme pour specifier qui est derriere chaque tache. Dans cette optique, nous proposons un environnement a base de techniques de systemes experts. Le premier cote de cette etude met l'accent sur la diversite des informations d'administration. Il decrit un modele de representation des connaissances du systeme d'administration, qui repose sur des formalismes appropries pour chaque type de connaissances (reseau, services et utilisateurs). Le second cote souleve le probleme de distribution d'un systeme d'administration de reseaux. Il presente un modele de traitement fonde sur une architecture employant des principes de l'intelligence artificielle distribuee, notamment des systemes multi-agents
APA, Harvard, Vancouver, ISO, and other styles
10

Séguy, Anne. "Décision collaborative dans les systèmes distribués : application à la e-maintenance." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000813/.

Full text
Abstract:
Depuis leur apparition, les TIC (Technologies d'Information et de Communication) ont intégré et fait évoluer les mùodes de travail des entreprises avec les notions de e-service, de travail collaboratif, d'organisations distribuées et de mutualisation des connaissances. Nous considérons cette intégration des TIC à la la fonction maintenance, activité clé de la performance des entreprises, largement pénétrée par ces technologies avec, par exemple, les concepts de e-maintenance. Nos objectifs sont d'analyser les processus décisionnels collaboratifs et l'influence des TIC sur ceux-ci et de proposer les moyens d'évaluer les performances d'un service de maintenance supporté par les TIC. La modélisation du problème revêt un aspect multidomaine, multivue et multiacteur et l'évaluation des performances est multicritère. Nous proposons, tout d'abord, une modélisation des situations de e-maintenance en nous appuyant sur la représentation des processus et en utilisant le formalisme objet, afin de mettre en évidence les composants clés des activités de e-mainenance et l'influence des TIC. Ensuite, nous étudions les activités de décision collaborative en analysant la logique de regroupement des centres de décision, supports des décisions et nous caractérisons les ressources immatérielles engagées. Enfin, nous proposons un cadre d'évaluation des performances des activités de e-mainenance et des modèles de représentation permettant de simuler des configurations d'engagement de ces ressources et de guider les choix d'organisation afférents
The Information and Communication Technologies (ICTs) involve many changes in the companies functioning, with the concepts of e-service, collaborative work, distributed organizations and knowledge sharing. We consider this integration of ICTs to the maintenance function, main activity of companies' performance and is widely penetrated by theses technologies with, for example, the e-maintenance concept. Our objectives are to analyze the collaborative decision making process and the influence of ICTs on them and to propose ways to assess the performance of a maintenance service supported by ICTs. The modelling of the problem is multidomain, multiview and multiactor and the performance is multicriteria. First, we propose a situations modelling of e-maintenance based on the process representation and on the formalism object to highlight key components of e-maintenance and influence of ICTs. Then, we investigate the activities of collaborative decision by analyzing and grouping decision making centers which support the decisions and we characterize the intangible resources committed. Finally, we propose a framework for evaluate the performance of e-maintenance and representation models to simulate configurations of distribution of these resources and allow to make organizational choices related
APA, Harvard, Vancouver, ISO, and other styles
11

Gandon, Fabien. "INTELLIGENCE ARTIFICIELLE DISTRIBUÉE ET GESTION DES CONNAISSANCES : ONTOLOGIES ET SYSTÈMES MULTI-AGENTS POUR UN WEB SÉMANTIQUE ORGANISATIONNEL." Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00378201.

Full text
Abstract:
Ce travail considère les systèmes multi-agents pour la gestion d'un web sémantique d'entreprise basé
sur une ontologie. Dans le projet CoMMA, je me suis focalisé sur deux scénarios d'application:
l'assistance aux activités de veille technologique et l'aide à l'insertion d'un nouvel employé dans une organisation. Trois aspects ont été développés dans ce travail :
- la conception d'une architecture multi-agents assistant les deux scénarios, et l'approche organisationnelle descendante adoptée pour identifier les sociétés, les rôles et les interactions des agents ;
- la construction de l'ontologie O'CoMMA et la structuration de la mémoire organisationnelle en exploitant les technologies du Web sémantique ;
- la conception et l'implantation (a) des sous-sociétés d'agents chargées de la maintenance des annotations et de l'ontologie et (b) des protocoles supportant ces deux groupes d'agents, en particulier des techniques pour la distribution des annotations et des requêtes entre les agents.
APA, Harvard, Vancouver, ISO, and other styles
12

Abchiche, Nadia. "Elaboration, implémentation et validation d'une approche distribuée pour l'intégration de modèles de raisonnement hétérogènes : application au diagnostic de pannes électriques." Paris 8, 1999. http://www.theses.fr/1999PA081527.

Full text
Abstract:
Cette these presente l'elaboration d'une approche distribuee pour l'integration de systemes manipulant chacun, un modele de raisonnement particulier. Chaque modele de raisonnement est constitue d'un type de connaissances specifique et d'un ensemble de moyens appropries pour l'exploitation de ces connaissances, ce qui lui conferent un ensemble de caracteristiques lors de la resolution d'un probleme. Notre modele de cooperation mocah (modelisation de la cooperation entre agents heterogenes) est concu pour permettre l'integration de plusieurs modeles de raisonnement dans un meme systeme, en vue de combiner les avantages de plusieurs modeles de raisonnement tout en minimisant leurs inconvenients. Mocah est base sur l'identification de connaissances de cooperation (reseaux contractuels, negociation) que nous avons modelise avec la methodologie commet. Cette methodologie est appliquee aussi bien aux connaissances de cooperation qu'aux connaissances du domaine. Elle consiste a decomposer ces deux types de connaissances selon trois dimensions : les taches, les methodes et le modele du domaine. A partir de mocah, nous avons concu une architecture d'agent cooperatif implementee dans un environnement de programmation multi-agents. Chaque agent represente un modele de raisonnement particulier, dote d'une architecture capable de manipuler avec un meme algorithme l'ensemble des connaissances d'un agent. A cause des limites individuelles des modeles de raisonnement, aucun agent n'est capable de maitriser un probleme dans sa totalite. Cette maitrise concerne aussi bien le nombre de problemes resolus que la qualite meme d'une solution. Les agents communiquent entre eux grace a une representation consensuelle. Ils cooperent et creent ainsi, une synergie entre les modeles de raisonnement, ce qui permet alors d'augmenter le nombre de problemes resolus et d'ameliorer les solutions obtenues. Notre approche a ete experimentee pour le diagnostic de pannes de circuits electriques
This work describes the elaboration of a distributed approach to integrate several heterogeneous reasoning models using multi-agents paradigms. Each reasoning model represents particular knowledge with appropriate methods. Since none of the reasonig models is able to solve a whole problem with acceptable performances, we have proposed a cooperation model, mocah (modellig cooperation between heterogeneous agents). The starting point is to model the cooperation reasoning at the knowledge level with a methodology usefull for domain expertise commet. In fact, we extracted cooperation expertise from works done in distributed artificial intelligence (contract net protocoles to allocate tasks, solving conflicts using negociation mechanisms). The most important point to develop is an agent's architecture to support the two levels of reasoning: cooperation reasoning and domain reasoning. These two levels are modeled using the above mentioned methodology which consist in decomposing knowledge according to three dimensions: the tasks, the methods and the domain model. Our architecture is sufficiently flexible to allow increasing the variety and the number of agents, deal with existing cooperation expertise and easily integrate new ones, and finally, be domain independent. A consensus representation is developed to make the agents communicating despite heterogeneous local representations. The agents reason not only on their own domain problems, but also on their capabilities and other agents' capabilities so they can cooperate to improve the problem solving process and increase the variety of the problems solved by the whole system. Our approach has been applied to diagnosis of faults in electrical functions of cars
APA, Harvard, Vancouver, ISO, and other styles
13

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
14

Hassas, Salima. "Gmal : un modèle d'acteurs réflexif pour la conception de systèmes d'intelligence artificielle distribuée." Lyon 1, 1992. http://www.theses.fr/1992LYO10201.

Full text
Abstract:
Concevoir et réaliser des systèmes intelligents nécessite un outil qui fournisse un cadre favorable pour la mise en oeuvre des propriétés de cette intelligence. Outre son aspect massif et complexe, une des caractéristiques importantes de l'intelligence est son aspect évolutif et adaptatif permettant ainsi une capacité d'adaptation à son environnement (et/ou a des situations nouvelles). Le modèle d'acteurs, qui est un modèle de calcul concurrent, propose pour la première fois en 1977 par C. Gewitt au MIT, semble être un bon outil pour la mise en oeuvre de tels systèmes. De plus pour pouvoir offrir un système qui soit capable de s'adapter à son environnement, il est primordial qu'un tel système puisse avoir une représentation de lui-même qu'il puisse observer et manipuler au cours de son évolution. Cet aspect nécessite donc un outil qui puisse offrir une architecture réflexive. C'est ce que nous proposons avec GMAL (Gosseyn Machine Actor Language) qui est un modèle d'acteurs réflexif. La réflexivité dans GMAL est fondée sur l'éxistence d'un met́a-modèle de représentation et d'éxécution qui soit lui-même un modèle d'acteurs. Cette modélisation au méta-niveau fait que GMAL est un outil pour la concéption de systèmes intelligents qui est lui-même doté de propriétés intelligentes. . .
APA, Harvard, Vancouver, ISO, and other styles
15

Moskolai, Ngossaha Justin. "Contribution à la conception d'un système de mobilité urbaine durable : de l'élicitation des connaissances à l'architecture distribuée du système." Thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/24333/1/Moskolai_Ngossaha.pdf.

Full text
Abstract:
Un des fondements de l’Ingénierie Système réside dans la compréhension et la formulation des exigences de différentes parties prenantes pour mieux maîtriser et contrôler la complexité du système à concevoir. L’évaluation des performances du système nécessite par ailleurs la prise en compte des expertises interdisciplinaires qui peuvent être incertaines, voire incomplètes. La prise en compte des interdépendances entre plusieurs domaines d’activité dans la conception et le déploiement d’un système de mobilité urbaine durable est un bon exemple, qui reflète la problématique de l’élicitation des connaissances pluridisciplinaires, puis de leur utilisation dans la définition d’une architecture distribuée. Le renouveau de la mobilité urbaine a en effet fait émerger des alternatives aux déplacements habituels, faisant place à la mobilité douce, à l’usage raisonnée des véhicules personnels, à la multimodalité et à l’inter-mobilité. Dans ce contexte, la convergence tend à s’opérer vers des plateformes numériques offrant des services variés, à la demande, adaptés aux besoins immédiats des usagers. Ces services sont généralement développés par des acteurs du secteur privé qui détiennent à la fois l’expertise et la technologie pour les déployer. Il s’agit donc, pour les pouvoirs publics considérés comme organe de contrôle et de régulation de la mobilité, de définir quelles infrastructures et quels services offrir et selon quelles modalités. Le travail de recherche effectué dans cette thèse vise à proposer puis valider, une démarche générale pour accompagner les décideurs des villes dans la conception et la mise en place des solutions de mobilité du futur. Un cadre méthodologique prenant en compte l’aide au choix de politiques et de partenaires cibles a pour cela été proposé, basé sur une méthode d’analyse multicritère, dans un cadre de décision collective et sous incertitude. Un méta-modèle d’un système de mobilité durable a ensuite été élaboré, à partir des connaissances élicitées d’un ensemble de standards et référentiels, de même qu’une architecture distribuée du système. Afin d’étudier la faisabilité de l’implémentation de cette architecture, en considérant le point de vue de l’aide à la décision, une roadmap de mise en œuvre a enfin été proposée, basée sur un système de recommandations visant à optimiser la réalisation de projets de mobilité nouveaux
APA, Harvard, Vancouver, ISO, and other styles
16

Gandon, Fabien. "Distributed artificial intelligence and knowledge management : ontologies and multi-agent systems for a corporate semantic web." Nice, 2002. http://www.theses.fr/2002NICE5773.

Full text
Abstract:
This work concerns multi-agents systems for the management of a corporate semantic web based on an ontology. It was carried out in the context of the European project CoMMA focusing on two application scenarios: support technology monitoring activities and assist the integration of a new employee to the organisation. Three aspects were essentially developed in this work: the design of a multi-agents architecture supporting both scenarios, and the organisational top-down approach followed to identify the societies, the roles and the interactions of agents. The construction of the ontology O'CoMMA and the structuring of a corporate memory exploiting semantic Web technologies. The design and implementation of the sub-societies of agents dedicated to the management of the annotations and the ontology and of the protocols underlying these groups of agents, in particular techniques for distributing annotations and queries between the agents
Ce travail concerne les systèmes multi-agents pour la gestion d'un web sémantique d'entreprise basé sur une ontologie. Il a été effectué dans le cadre du projet Européen CoMMA se focalisant sur deux scénarios d'application: l'assistance aux activités de veille technologique et l'aide à l'insertion d'un nouvel employé dans une organisation. Trois aspects ont essentiellement été développés dans ce travail: la conception d'une architecture multi-agents assistant les deux scénarios, et l'approche organisationnelle descendante adoptée pour identifier les sociétés, les rôles et les interactions des agents. La construction de l'ontologie O'CoMMA et la structuration de la mémoire organisationnelle en exploitant les technologies du Web sémantique. La conception et l'implantation (a) des sous-sociétés d'agents chargées de la maintenance des annotations et de l'ontologie et (b) des protocoles supportant ces deux groupes d'agents, en particulier des techniques pour la distribution des annotations et des requêtes entre les agents
APA, Harvard, Vancouver, ISO, and other styles
17

Weisenhorn, Jean. "Contribution a la connaissance de l'influence de la stagnation sur la qualite bacteriologique des eaux distribuees par les reseaux." Strasbourg 1, 1987. http://www.theses.fr/1987STR10745.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Jars, Isabelle Lamure Michel. "Contribution des Sciences Sociales dans le domaine de l'intelligence artificielle distribuée ALONE, un modèle hybride d'agent apprenant /." Villeurbanne : Université Claude Bernard, 2005. http://tel.archives-ouvertes.fr/docs/00/04/98/85/PDF/These_IJ_2005.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Seguy, Anne. "DÉCISION COLLABORATIVE DANS LES SYSTÈMES DISTRIBUÉS - APPLICATION A LA E-MAINTENANCE." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2008. http://tel.archives-ouvertes.fr/tel-00372996.

Full text
Abstract:
Depuis leur apparition, les Technologies d'Information et de Communication (TIC) ont intégré et fait évoluer les modes de travail des entreprises, avec les notions de e-service, de travail collaboratif, d'organisations distribuées et de mutualisation des connaissances. Nous considérons cette intégration des TIC à la fonction maintenance, activité clé de la performance des entreprises, largement pénétrée par ces technologies avec, par exemple, les concepts de e-maintenance. Nos objectifs sont d'analyser les processus décisionnels collaboratifs et l'influence des TIC sur ceux-ci et de proposer les moyens d'évaluer les performances d'un service de maintenance supporté par les TIC. La modélisation du problème revêt un aspect multidomaine, multivue et multiacteur et l'évaluation des performances est multicritère. Nous proposons, tout d'abord, une modélisation des situations de e-maintenance en nous appuyant sur la représentation des processus et en utilisant le formalisme objet, afin de mettre en évidence les composants clés des activités de e-maintenance et l'influence des TIC. Ensuite, nous étudions les activités de décision collaborative en analysant la logique de regroupement de centres de décision, supports des décisions et nous caractérisons les ressources immatérielles engagées. Enfin, nous proposons un cadre d'évaluation des performances des activités de e-maintenance et des modèles de représentation permettant de simuler des configurations d'engagement de ces ressources et de guider les choix d'organisation afférents.
APA, Harvard, Vancouver, ISO, and other styles
20

Mbaye, Maïssa. "Les systèmes cognitifs dans les réseaux autonomes : une méthode d'apprentissage distribué et collaboratif situé dans le plan de connaissance pour l'auto-adaptation." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13976/document.

Full text
Abstract:
L'un des défis majeurs pour les décennies à venir, dans le domaine des technologies de l'information et de la communication, est la réalisation du concept des réseaux autonomes. Ce paradigme a pour objectif de rendre les équipements réseaux capables de s'autogérer, c'est-à-dire qu'ils pourront s'auto-configurer, s'auto-optimiser, s'auto-protéger et s'auto-restaurer en respectant les objectifs de haut niveau de leurs concepteurs. Les architectures majeures de réseaux autonomes se basent principalement sur la notion de boucle de contrôle fermée permettant l'auto-adaptation (auto-configuration et auto-optimisation) de l'équipement réseau en fonction des événements qui surviennent sur leur environnement. Le plan de connaissance est une des approches, très mise en avant ces dernières années par le monde de la recherche, qui suggère l'utilisation des systèmes cognitifs (l'apprentissage et le raisonnement) pour fermer la boucle de contrôle. Cependant, bien que les architectures majeures de gestion autonomes intègrent des modules d'apprentissage sous forme de boite noire, peu de recherches s'intéressent véritablement au contenu de ces boites. C'est dans ce cadre que nous avons fait une étude sur l'apport potentiel de l'apprentissage et proposé une méthode d'apprentissage distribué et collaboratif. Nous proposons une formalisation du problème d'auto-adaptation sous forme d'un problème d'apprentissage d'état-actions. Cette formalisation nous permet de définir un apprentissage de stratégies d'auto-adaptation qui se base sur l'utilisation de l'historique des transitions et utilise la programmation logique inductive pour découvrir de nouvelles stratégies à partir de celles déjà découvertes. Nous définissons, aussi un algorithme de partage de la connaissance qui permet d'accélérer le processus d'apprentissage. Enfin, nous avons testé l'approche proposé dans le cadre d'un réseau DiffServ et montré sa transposition sur le contexte du transport de flux multimédia dans les réseaux sans-fil 802.11
One of the major challenges for decades to come, in the field of information technologies and the communication, is realization of autonomic paradigm. It aims to enable network equipments to self-manage, enable them to self-configure, self-optimize, self-protect and self-heal according to high-level objectives of their designers. Major architectures of autonomic networking are based on closed control loop allowing self-adapting (self-configuring and self-optimizing) of the network equipment according to the events which arise on their environment. Knowledge plane is one approach, very emphasis these last years by researchers, which suggests the use of the cognitive systems (machine learning and the reasoning) to realize closed control loop. However, although the major autonomic architectures integrate machine learning modules as functional block, few researches are really interested in the contents of these blocks. It is in this context that we made a study on the potential contribution machine learning and proposed a method of distributed and collaborative machine learning. We propose a formalization self-adapting problem in term of learning configuration strategies (state-actions) problem. This formalization allows us to define a strategies machine learning method for self-adapting which is based on the history observed transitions and uses inductive logic programming to discover new strategies from those already discovered. We defined, also a knowledge sharing algorithm which makes network components collaborate to improve learning process. Finally, we tested our approach in DiffServ context and showed its transposition on multimedia streaming in 802.11 wireless networks
APA, Harvard, Vancouver, ISO, and other styles
21

Antoine, Émilien. "Gestion des données distribuées avec le langage de règles: Webdamlog." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00908155.

Full text
Abstract:
Notre but est de permettre à un utilisateur du Web d'organiser la gestion de ses données distribuées en place, c'est à dire sans l'obliger à centraliser ses données chez un unique hôte. Par conséquent, notre système diffère de Facebook et des autres systèmes centralisés, et propose une alternative permettant aux utilisateurs de lancer leurs propres pairs sur leurs machines gérant localement leurs données personnelles et collaborant éventuellement avec des services Web externes. Dans ma thèse, je présente Webdamlog, un langage dérivé de datalog pour la gestion de données et de connaissances distribuées. Le langage étend datalog de plusieurs manières, principalement avec une nouvelle propriété la délégation, autorisant les pairs à échanger non seulement des faits (les données) mais aussi des règles (la connaissance). J'ai ensuite mené une étude utilisateur pour démontrer l'utilisation du langage. Enfin je décris le moteur d'évaluation de Webdamlog qui étend un moteur d'évaluation de datalog distribué nommé Bud, en ajoutant le support de la délégation et d'autres innovations telles que la possibilité d'avoir des variables pour les noms de pairs et des relations. J'aborde de nouvelles techniques d'optimisation, notamment basées sur la provenance des faits et des règles. Je présente des expérimentations qui démontrent que le coût du support des nouvelles propriétés de Webdamlog reste raisonnable même pour de gros volumes de données. Finalement, je présente l'implémentation d'un pair Webdamlog qui fournit l'environnement pour le moteur. En particulier, certains adaptateurs permettant aux pairs Webdamlog d'échanger des données avec d'autres pairs sur Internet. Pour illustrer l'utilisation de ces pairs, j'ai implémenté une application de partage de photos dans un réseau social en Webdamlog.
APA, Harvard, Vancouver, ISO, and other styles
22

Saad, Belaïd. "Intégration des problèmes de satisfaction de contraintes distribués et sécurisés dans les systèmes d'aide à la décision à base de connaissances." Thesis, Metz, 2010. http://www.theses.fr/2010METZ012S/document.

Full text
Abstract:
Une large gamme de problèmes pratiques nécessite une diversité de représentation et de modélisation des données et de développer des modèles dans lesquels les différentes données peuvent être représentées. Dans cette thèse, nous nous intéressons à l'hybridation de deux modèles : le modèle des Systèmes Experts (SE) et le modèle des Problèmes de Satisfaction de Contraintes (CSP). L'objectif de notre travail est de proposer un système distribué et sécurisé pour intégrer des contraintes dans un moteur d'inférence. Pour ce faire, nous avons d'une part développé un outil de communication qui facilite la collaboration entre SE et CSP. D'autre part, nous avons conçu un algorithme qui permet la communication entre plusieurs agents situés dans un environnement distribué. Enfin, un de nos buts, et non des moindres, est d'assurer la protection des données privées de chaque entité. La thèse est donc constituée de trois axes principaux : Le premier axe vise l'élaboration d'une méthode de communication entre les deux modèles. Tout d'abord, nous décrivons une procédure de transformation automatique entre un système expert à base de règles vers un nouveau modèle de CSP dynamique nommé DDCSP (Dynamic Domain CSP) que nous avons au préalable défini. Cette procédure de transformation automatique permettra l'injection des résultats de l'un des deux modèles en entrée de l'autre. Cette procédure joue donc un rôle essentiel pour assurer la collaboration qui s'appuie sur l'échange d'informations. Le deuxième axe est consacré à la prise en compte de la distribution d'un problème CSP sur plusieurs sites. Nous proposons un algorithme basé sur la notion de coopération et de parallélisme qui assure une résolution distribuée entre plusieurs agents. Notre approche consiste à construire un anneau d'agents autonomes, responsable chacun d'une partie des variables et des contraintes du problème. Chacun de ces agents va initier un processus qui explore une branche différente de l'arbre de recherche. Des heuristiques sont proposées pour garantir une diversification des explorations, en d'autres termes pour éviter que les branches explorées ne se recouvrent. Enfin, nous présentons une technique de sécurisation de cet algorithme dans l'environnement distribué basée sur l'utilisation judicieuse des propriétés de cryptographie asymétrique pour préserver la confidentialité des instanciations. Afin d'effectuer une validation expérimentale de nos travaux, une implémentation dans les langages de programmation C/C++ ou Java est décrite dans chacun de ces trois axes
A wide range of practical problems requires diversity of data representation and to develop models in which different data can be represented. In this thesis, we focus on the hybridization of two models: Expert System (ES) and Constraint Satisfaction Problem (CSP).The aim of our work is to propose a secure distributed system that allows integrating constraints in an inference engine.To reach this goal, on one hand we developed a communication tool that facilitates collaboration between ES and CSP. On the other hand, we designed an algorithm that allows communication between multiple entities in a distributed environment. Finally, one of our goals, not the least, is to protect private data of each entity. The thesis is composed of three main axes.The first priority is to develop a method of communication between the two models. First, we describe an automatic transformation procedure of the rule based expert system into the new dynamic CSP model called DDCSP (Dynamic Domain CSP) that we have designed. This procedure will automatically transform and inject the result of one of the two models as input to the other one. This process plays an essential role for collaboration based on the exchange of information.Our second axe proposes an algorithm based on the concept of cooperation and parallelism which provides a resolution distributed among several entities. Our approach is to build a ring of autonomous agents, each responsible for some of the variables and constraints of the problem. Each of these agents will initiate a process that explores a different branch of the search tree. Heuristics are proposed to ensure a diversification of exploration, in other words to prevent overlapping of the explored branches.Finally, we present a technique for securing this distributed algorithm based on a judicious use of the properties of asymmetric encryption to protect the confidentiality of instantiations. To perform an experimental validation of our work, an implementation in the programming languages C/C++ or Java is described in each of these three axes
APA, Harvard, Vancouver, ISO, and other styles
23

Cointe, Christophe. "Aide à la gestion de conflits en conception concourante dans un système distribué." Montpellier 2, 1998. http://www.theses.fr/1998MON20082.

Full text
Abstract:
Dans le cadre des recherches en intelligence artificielle, la distribution d'une tâche doit concourir à l'efficacité de la réalisation de la tâche. Parmi tous les facteurs qui peuvent nuire aux bénéfices attendus de la distribution d'une tâche, le coût de la gestion de conflits joue un rôle primordial. Afin de faciliter la mise en oeuvre de méthodes de détection et de gestion de conflits dans la conception concourante, il nous a paru intéressant de nous placer dans le cadre de systèmes distribués ouverts. Dans notre approche, le concepteur est libre de mettre en oeuvre l'ensemble des méthodes de gestion de conflits disponibles, tout en étant guidé dans ses choix d'une part par une vision multi-perspectives des données et d'autre part en fonction du contexte de la réalisation de sa tâche. De plus, nous utilisons la notion de points de vue afin de permettre une indexation intelligente des données de conception. Ainsi un concepteur décrit, via un point de vue, la façon dont les autres concepteurs doivent interpréter les données qu'il propose. Suite à notre étude théorique, nous avons mis en oeuvre un système multi-agents, CREoPS² (Communication Representation and Evaluation of Proposition Support System), reposant sur des techniques et outils compatibles avec l'Internet
Within Artificial Intelligence research works, task distribution must concur to the effectiveness of task realization. Among all the factors which can impede the benefits expected by distribution, the cost of conflict management cost plays an utmost role. In order to facilitate the use of methods for conflict detection and management, we consider it favorable to set our work in the context of open distributed system. In our approach, the designer is allowed to use all the available methods for conflict management, and is guided in his/her choices, on the one hand, by a multi-perspective view on the data and, on the other hand, by the realization context of his/her task. Furthermore, we use the viewpoint notion to allow for an intelligent indexing of data. Thus, a designer describes, bye means of a viewpoint, the way in which the other designers must interpret the data that he/she proposes. Following our theoretical study, we propose a multi-agents system, CREoPS², based on technics and tools which are Internet-compatible
APA, Harvard, Vancouver, ISO, and other styles
24

Boulmakoul, Azedine. "Vers un système à base de connaissances distribué & temps réel pour la surveillance et le contrôle du trafic en site urbain." Lyon 1, 1990. http://www.theses.fr/1990LYO10222.

Full text
Abstract:
Dans l'ingenierie du trafic urbain, le carrefour est un element strategique tres complexe. Cette complexite est due a plusieurs facteurs: diversite des acteurs, des interactions et des conflits, strategies de commandes et integration dans le reseau. De cet ensemble de caracteristiques, il ressort que la gestion des carrefours doit respecter des imperatifs essentiels: tache de surveillance, tache de controle, mecanisme de cooperation et de communication. Ces imperatifs representent les ingredients du systeme carrefour intelligent. Dans le cadre de ce projet nous avons concu une structure d'accueil logicielle flexible dediee a la description de differentes facettes phenomenologiques des carrefours. Cette structure est implementee avec un outil de developpement de systemes a base de connaissances temps reel (frame-based) g2#t#m. Elle distingue trois niveaux de connaissances: niveau contextuel topologique, niveau fonctionnel et niveau controle. A cette structure nous avons integre une nouvelle generation d'indicateurs fondes sur l'analyse d'images de mouvement. Ce couplage constitue la base de developpement de la tache de surveillance et de diagnostic du projet europeen drive: invaid. Une version de demonstration du systeme que nous avons developpe tourne actuellement sur une sparc-machine. Sur le plan theorique, nous proposons des resultats dans le cadre des logiques non monotones au sujet de la formalisation du dignostic ainsi que dans le champ des logiques temporelles pour l'expression des connaissances temporelles
APA, Harvard, Vancouver, ISO, and other styles
25

Slodzian, Aurélien. "Une méthodologie componentielle pour la modélisation de la coopération multi-agents." Paris 6, 1998. http://www.theses.fr/1998PA066624.

Full text
Abstract:
Face à l'expansion des systèmes dits multi-agents, la question s'est naturellement posée de savoir quels outils méthodologiques et pratiques l'approche dite cognitive pouvait apporter pour la conception de tels systèmes. La présente thèse tente d'apporter une réponse à cette question dans le contexte spécifique de systèmes distribués coopératifs orientés vers la résolution de problèmes. La méthodologie COMMA, développée par l'auteur et présentée ici, reprend la perspective originale d'Allen Newell qui considère les systèmes comme des agents rationnels ayant des objectifs, de la connaissance et utilisant rationnellement cette dernière pour atteindre les premiers. Ce qui fait la spécificité de COMMA par rapport à ses prédécesseurs, en particulier COMMET (componential methodology), est que l'approche classique tend à considérer le système multi-agents comme un tout, comme un unique agent cognitif, sans tenir compte de son architecture distribuée. Au contraire, COMMA propose de modéliser chaque agent comme un agent rationnel à part entière et de modéliser en sus la coopération entre les agents en décrivant, toujours au niveau cognitif les rôles qu'ils peuvent tenir dans des scenarios de coopération complexes. Grace à de tels modèles, il est possible de transformer une collection d'agents en une agrégation effective de compétences collaborant à la résolution d'un problème commun. Outre une méthodologie qui raffine, précise et étend aux systèmes distribués les notions de tache et de modèle de connaissance, COMMA est aussi un langage formalisé pour la spécification des agents en vue de leur implémentation. Ce langage et son implémentation sont deux autres résultats atteints par l'auteur et expliqués dans ce document. Deux exemples d'application de cette méthodologie à des cas non-triviaux sont aussi présentes.
APA, Harvard, Vancouver, ISO, and other styles
26

Delalonde, Charles. "Mise en relation et coopération dans les équipes distribuées de R&D : l'application de l'Actor-Network Theory dans la recherche de "connaissances"." Troyes, 2007. http://www.theses.fr/2007TROY0015.

Full text
Abstract:
Pour garantir l'efficacité d'équipes distribuées, la mise en relation des experts et l'échange de connaissance est critique. Ce contexte de coopération est envisagé à travers l'étude d'un laboratoire de R&D réparti entre Grenoble, Caen et Sophia Antipolis chez un opérateur de télécommunications français. Les pratiques de capitalisation et de partage de connaissances collectives mises en place se révèlent peu satisfaisantes. Cette thèse prend pour cadre l'Actor-Network Theory et l'applique à la recherche de "connaissances" (informations et personnes) et à la création dynamique de réseaux sociaux. La thèse donne lieu au développement du logiciel DemonD (contraction de Demand and responD). DemonD est un moteur de recherche qui exploite l'association d'entités hétérogènes (requêtes, documents, discussions en cours, articles extraits de la base de connaissance, votes, annotations, tags, folksonomy, commentaires, individus, groupes). DemonD s'appuie sur trois algorithmes : le Profiler, le ContactRank et le Coop. Les personnes identifiées sont sollicitées et échangent dans un espace collaboratif dédié. La discussion est synthétisée dans un article partagé par les membres de la communauté. Ce moteur de recherche constitue un service de Social Search et de gestion des réseaux sociaux lesquels se généralisent sur Internet (Web 2. 0). Un simulateur a été développé et a permis de valider le fonctionnement du logiciel. Une évaluation ergonomique a été réalisée à partir de 50 entretiens de futurs utilisateurs de ce service. Enfin, l'opérateur de télécommunications, s'appuyant sur sa méthodologie de conception de services, a labélisé DemonD "Proof of Concept". Les simulations ont permis de démontrer que la recherche de "connaissances" est une activité qui favorise l'émergence d'un lien social entre des entités hétérogènes et suggèrent des stratégies pertinentes pour augmenter l'efficacité de la recherche d'information.
Unlike content, which is perishable and quickly become obsolete, experts’ networks are rather permanent in R&D context. For this research, we formulated the assumption that information retrieval is critical to researchers’ activity and enables distributed teams to amplify their collective social capital. We utilized Michel Callon and Bruno Latour’s Actor Network. Theory to describe information retrieval’s activity. This activity model was utilized to specify DemonD (concatenation of DEMand and respOND), an Expers’ Retrieval Service, relying on three algorithms (Profiler, ContactRank and Coop), transparent profile construction based on user’s activity, community’s participation and shared documents. DemonD acts as a search engine and identify documents but more specifically users relevant to a query. These individuals are invited to participate in a dedicated newsgroup and the information exchanged is capitalized and shared in a dedicated knowledge base. We collected qualitative data, interviewing fifty researchers who reacted very positively to DemonD’s approach of social information retrieval. We also simulated DemonD’s usage with one hundred individuals and identified that information retrieval activity is a social process helping to foster a network of organizational expertise in distributed Research and Development teams
APA, Harvard, Vancouver, ISO, and other styles
27

Fallah, Nima. "The question of leadership in communities of practice : the case of international institutions." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAB003.

Full text
Abstract:
Nos travaux de recherche se proposent d’apporter de nouveaux éléments conceptuels dans la littérature du « leadership » des CdP. L’existence, la position et le rôle de « leader » seront mis en perspective par rapport aux théories existantes sur le « leadership » dans d’autres domaines (science de l’éducation notamment) et le concept de communautés de pratique. Nous proposons donc le concept de “leadership distribué” et évaluons différentes approches, notamment les routines organisationnelles susceptibles de répondre à notre question de recherche. Enfin nous discutons des implications du “leadership distribué” au travers d’une étude empirique. En conclusion, l’application du modèle de leadership distribué que nous avons proposé (et en considérant ses multiples facteurs), a mis en lumière l’importante influence des routines dans la pratique quotidienne des apprentissages en tant que levier principal dans la distribution du leadership
This research claims that the current, literature of “Communities of Practice” is deficient concerning its key feature: leadership. We seek to expand the focus by underlining the key elements that influence the leadership practice in CoPs, and recommending a promising path for further investigation, which involves the “distributed leadership” theory. Drawing from an extended literature review on the subject of leadership in CoPs, the study proposes that predominant descriptive and conceptual perceptions of the topic should be supplemented by more field observation studies – evidence-based research - to support and validate the theoretical literature. During past three decades, several scholars have extensively studied this concept (CoPs) in a variety of disciplines. However, there have been very few studies of the influence of routines in these communities. The aim of this study is to analyze the notion of routines in CoPs, in light of the literature on distributed leadership theory. We focused on one particular feature of distributed form of leadership – the routines – and applied this element on the knowledge-based learning environment: the CoPs
APA, Harvard, Vancouver, ISO, and other styles
28

Sato, Gilson Yukio. "Contribution à l'amélioration de la coordination de communautés de pratique distribuées." Compiègne, 2008. http://www.theses.fr/2008COMP1756.

Full text
Abstract:
Ce travail de recherche concerne le développement d'outils permettant de coordonner des Communautés de Pratique (CoP) distribuées en liaison avec les systèmes multi-agents (SMA). Les CoP distribuées sont de plus en plus utilisées par les organisations en quête d'approches sociales pour traiter les problèmes liés à la connaissance. Toutefois, les CoP distribuées sont difficiles à développer et à coordonner. Dans un tel contexte, des outils pour favoriser et accompagner le développement des CoP deviennent fortement désirables. Ainsi motivés, nous avons conçu et réalisé un prototype d'agent, que nous avons appelé CopBoard, permettant de coordonner des CoP. Sa conception repose sur des études incluant : le cadre théorique des CoP, les relations entre les CoP et les SMA, les SMA comme outils pour les communautés, et une étude de cas. Le CopBoard est un tableau de bord. Il fournit des informations qui encouragent une réflexion sur le domaine de la communauté et sur la participation de ses membres. Le système analyse les échanges de messages électroniques entre les membres et en extrait des informations pour construire des représentations graphiques destinées à la coordination de la communauté. Une CoP est une structure sociale délicate dans laquelle trop de contrôles ou un manque de soutien peuvent nuire de façon significative à son développement. Avec le CopBoard, nous visons à favoriser le développement d'une CoP sans la contrôler. Le système n'assure pas le rôle de coordinateur, mais a pour objectif de lui faciliter la tâche. Nous avons testé le CopBoard et les premiers résultats permettent d'espérer son inclusion effective dans la boîte à outils d'une communauté
This research work concerns the development of tools to facilitate the coordination of distributed Communities of Practice (CoP) using Multi-Agent Systems (MAS). CoPs are increasingly used for organisations looking for social approaches to handle knowledge-related problems. However, to develop and coordinate distributed CoPs is a difficult task. In this context, tools to facilitate and follow the development of CoPs are highly desirable. With this motivation, we designed and implemented the prototype of an agent called CoPBoard to facilitate the coordination of CoPs. Its design is based on : a review about the CoP's theoretical framework, the articulation between CoPs and MAS, a review about MAS as tools for communities and a case study. The CoPBoard can be seen as an instrument panel for CoPs. It shows information that instigates a reflection about the community domain and the participation of its members. The system extracts information from the exchange of emails among community members and presents it as a graphical representations to the community coordination. A CoP is a delicate social structure, too much control over it or the lack of support can harm its development. The CoPBoard tries to facilitate the development of a community without controlling it. The system does not play the role of the coordinator, but it aims at helping him. We tested the CoPBoard and preliminary results indicate that it can be useful for a community. These results also showed new possible developments for this research work
APA, Harvard, Vancouver, ISO, and other styles
29

Ovalle, Carranza Demetrio Arturo. "Contribution à l'étude du raisonnement en univers multi-agent : KIDS, une application pour l'interprétation d'images biomédicales." Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339255.

Full text
Abstract:
Parmi les systèmes a base de connaissances fondes sur des techniques d'intelligence artificielle nous nous intéressons plus particulièrement aux systèmes de seconde génération (systèmes a schémas de raisonnement multiples) de type multi-agent. Le paradigme multi-agent est issu des approches de l'intelligence artificielle distribuée et permet de pallier les limitations rencontrées lors de la resolution de problèmes complexes. Le but de ce travail est d'analyser le raisonnement, et plus particulièrement d'aborder son étude en univers multi-agent. Il convient de préciser que celui-ci n'est pas un concept indépendant en lui-même: il est au contraire étroitement lie a d'autres problématiques telles que l'étude et la représentation des connaissances, la spécification des structures de contrôle, des protocoles de communication et d'allocation des taches ou le degré de sophistication de l'architecture interne des agents. Pour ce fait deux typologies originales, issues de l'étude approfondie de la connaissance et du raisonnement, seront proposées au long de cette thèse: l'une a caractère formelle l'autre a caractère technologique. La typologie formelle pour la classification des connaissances et du raisonnement permet une vue synthétique d'éléments souvent présentes de façon éparse et s'avère un outil d'assistance a la modélisation des connaissances et des raisonnements. La typologie technologique prend en compte les paramètres régissant les raisonnements propres a la technologie multi-agent non seulement au niveau individuel de l'agent mais aussi ceux développés au sein du groupe d'agents. Ces travaux ont contribue a la conception du système multi-agent kids (knowledge based image diagnosis system), système multi-agent dédié a l'interprétation d'images biomédicales. Ce système, par la variété des formes de connaissances et de raisonnement engages, illustre l'intérêt des typologies formelle et technologique proposées
APA, Harvard, Vancouver, ISO, and other styles
30

Quintero, Garcia Jose-Alejandro. "Parallélisation de la classification d'objets dans un modèle de connaissances multi-points de vue." Grenoble 1, 1993. http://www.theses.fr/1993GRE10088.

Full text
Abstract:
La classification est un mécanisme fondamental d'inférence de connaissance, car elle permet de résoudre un problème en le localisant dans une structure de catégories de problèmes connus et en regardant les solutions connues. Dans le modèle de connaissances TROPES, la classification des instances se fait dans une hiérarchie de classes manipulant différents points de vue d'un concept. Ce travail est consacré aux mécanismes parallèles pour la classification des instanCes dans une base de connaissances. Notre démarche s'appuie d'une part sur l'étude de modèles parallèles de résolution de problèmes en intelligence artificielle. Parmi les modèles, nous trouvons les systèmes de tableau noir et les langages acteurs. D'autre part ce travail parle sur les architectures de systèmes répartis et de machines parallèles modernes. Cette approche sur deux fronts convergents nous permet de prendre en compte à la fois les progrès dans l'expression et l'utilisation du parallélisme, et les tendances et possibilités d'utilisation de modèles parallèles pour la résolution de problèmes. Le résultat principal de cette étude est la conception d'un modèle parallèle pour la classification des instances dans un modèle de connaissances multi-points de vue tel que TROPES, et la réalisation d'un système de classification sur un système réparti en utilisant à la fois le modèle de tableau noir et le modèle de langage acteur
APA, Harvard, Vancouver, ISO, and other styles
31

Baupin, Nicolas. "Gestion évolutive du temps dans un contexte d'E-Working : Une approche d'apprentissage de critères subjectifs à partir d'agendas distribués." Caen, 2001. http://www.theses.fr/2001CAEN2056.

Full text
Abstract:
Proposition de nouvelles approches pour l'organisation de réunions entre travailleurs nomades utilisant les Nouvelles Technologies de l'Information et des Communications (N. T. I. C. ) d'une part et pour l'apprentissage automatique de connaissances depuis des agendas électroniques d'autre part. Après une définition des termes liés au télétravail et au nomadisme, nous montrons quelques pistes de recherche concernant l'incidence des T. T. I. C. Sur les relations sociales puis présentons notre solution d'organisation de réunions. Basé sur les travaux de recherche de la B. A. L. U. (Boîte A Lettres Universelle), notre modèle et sa maquette de démonstration proposent un ensemble d'outils permettant de résoudre interactivement le problème du "Secretary Nightmare" qui consiste à organiser une réunion entre personnes distantes. Tenant compte des besoins exprimés et des habitudes de prise de rendez-vous des travailleurs nomades, nous avons été amenés à considérer deux exigences majeures : l'accès à des serveurs d'agendas distants et l'intégration de modules d'apprentissage. Nous présentons ensuite "RESAS" (Remote Schedule Access System), système de type multi-agents que nous avons développé, permettant d'accéder depuis la plate-forme de services S. A. T. I. N. (Service d'Assistance Téléphonique Intelligent pour Nomades) à différents serveurs d'agendas distants pour offrir la possibilité à un travailleur nomade de consulter ses données personnelles stockées dans son entreprise [etc]
APA, Harvard, Vancouver, ISO, and other styles
32

Jars, Isabelle. "Contribution des Sciences Sociales dans le domaine de l'Intelligence Artificielle Distribuée : ALONE, un modèle hybride d'agent apprenant." Phd thesis, Université Claude Bernard - Lyon I, 2005. http://tel.archives-ouvertes.fr/tel-00011135.

Full text
Abstract:
L'apprentissage fait partie des expériences qui stimulent et structurent le savoir-faire individuel de tout être humain depuis sa naissance. Sa complexité et ses mystères suscitent l'intérêt de nombreuses recherches dans des disciplines aussi variées que les sciences sociales et l'informatique. En prenant conscience de cette diversité d'approche et des liens pluridisciplinaires qui en découlent, nous avons décidé de nous intéresser à cette problématique. L'objectif visé est de modéliser le comportement d'apprentissage par l'intermédiaire des systèmes multi-agents en intégrant des recherches issues des sciences sociales dans notre modèle. De ce fait, nous proposons une modélisation (baptisée ALONE) qui allie les spécificités théoriques des agents à la richesse des travaux socio-constructivistes sur l'importance du langage et des interactions lors du processus d'apprentissage humain. Notre contribution dans ce domaine est à la fois méthodologique et applicative.
APA, Harvard, Vancouver, ISO, and other styles
33

Antoine, Emilien. "Distributed data management with a declarative rule-based language webdamlog." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00933808.

Full text
Abstract:
Our goal is to enable aWeb user to easily specify distributed data managementtasks in place, i.e. without centralizing the data to a single provider. Oursystem is therefore not a replacement for Facebook, or any centralized system,but an alternative that allows users to launch their own peers on their machinesprocessing their own local personal data, and possibly collaborating with Webservices.We introduce Webdamlog, a datalog-style language for managing distributeddata and knowledge. The language extends datalog in a numberof ways, notably with a novel feature, namely delegation, allowing peersto exchange not only facts but also rules. We present a user study thatdemonstrates the usability of the language. We describe a Webdamlog enginethat extends a distributed datalog engine, namely Bud, with the supportof delegation and of a number of other novelties of Webdamlog such as thepossibility to have variables denoting peers or relations. We mention noveloptimization techniques, notably one based on the provenance of facts andrules. We exhibit experiments that demonstrate that the rich features ofWebdamlog can be supported at reasonable cost and that the engine scales tolarge volumes of data. Finally, we discuss the implementation of a Webdamlogpeer system that provides an environment for the engine. In particular, a peersupports wrappers to exchange Webdamlog data with non-Webdamlog peers.We illustrate these peers by presenting a picture management applicationthat we used for demonstration purposes.
APA, Harvard, Vancouver, ISO, and other styles
34

Nisse, Nicolas. "Complexité algorithmique: entre structure et connaissance. Comment les jeux de poursuite peuvent apporter des solutions." Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998854.

Full text
Abstract:
Ce document pr esente les travaux que j'ai r ealis es depuis ma th ese de doctorat. Outre la pr esentation de mes contributions, j'ai essay e de pr esenter des survols des domaines dans lesquels mes travaux s'inscrivent et d'indiquer les principales questions qui s'y posent. Mes travaux visent a r epondre aux nouveaux challenges algorithmiques que posent la croissance des r eseaux de telecommunications actuels ainsi que l'augmentation des donnees et du trafi c qui y circulent. Un moyen de faire face a la taille de ces probl emes est de s'aider de la structure particuliere des r eseaux. Pour cela, je m'attache a d e nir de nouvelles caract erisations des propri et es structurelles des graphes pour les calculer et les utiliser effi cacement a des fins algorithmiques. Autant que possible, je propose des algorithmes distribu es qui ne reposent que sur une connaissance locale/partielle des r eseaux. En particulier, j' etudie les jeux de poursuite - traitant de la capture d'une entit e mobile par une equipe d'autres agents - qui off rent un point de vue int eressant sur de nombreuses propri et es de graphes et, notamment, des d ecompositions de graphes. L'approche de ces jeux d'un point de vue agents mobiles permet aussi l' etude de mod eles de calcul distribu e. Le chapitre 1 est d edi e a l' etude de plusieurs variantes des jeux de gendarmes et voleur. Le chapitre 2 traite des decompositions de graphes et de leur relation avec les problemes d'encerclement dans les graphes. Le chapitre 3 se concentre sur les probl emes d'encerclement dans des contextes a la fois centralis e et distribu e. Finalement, le chapitre 4 traite de probl emes de routage dans diff erents contextes, ainsi que de mod eles de calcul distribu e.
APA, Harvard, Vancouver, ISO, and other styles
35

Tucker, Ida. "Chiffrement fonctionnel et signatures distribuées fondés sur des fonctions de hachage à projection, l'apport des groupes de classe." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN054.

Full text
Abstract:
Un des enjeux actuels de la recherche en cryptographie est la mise au point de primitives cryptographiques avancées assurant un haut niveau de confiance. Dans cette thèse, nous nous intéressons à leur conception, en prouvant leur sécurité relativement à des hypothèses algorithmiques bien étudiées. Mes travaux s'appuient sur la linéarité du chiffrement homomorphe, qui permet d'effectuer des opérations linéaires sur des données chiffrées. Précisément, je suis partie d'un tel chiffrement, introduit par Castagnos et Laguillaumie à CT-RSA'15, ayant la particularité d'avoir un espace des messages clairs d'ordre premier. Afin d'aborder une approche modulaire, j'ai conçu à partir de ce chiffrement des outils techniques (fonctions de hachage projectives, preuves à divulgation nulle de connaissances) qui offrent un cadre riche se prêtant à de nombreuses applications. Ce cadre m'a d'abord permis de construire des schémas de chiffrement fonctionnel; cette primitive très expressive permet un accès mesuré à l'information contenue dans une base de données chiffrée. Puis, dans un autre registre, mais à partir de ces mêmes outils, j'ai conçu des signatures numériques à seuil, permettant de partager une clé secrète entre plusieurs utilisateurs, de sorte que ceux-ci doivent collaborer afin de produire des signatures valides. Ce type de signatures permet entre autres de sécuriser les portefeuilles de crypto-monnaie. De nets gains d'efficacité, notamment en termes de bande passante, apparaissent en instanciant ces constructions à l'aide de groupes de classes. Mes travaux se positionnent d'ailleurs en première ligne du renouveau que connait, depuis quelques années, l’utilisation de ces objets en cryptographie
One of the current challenges in cryptographic research is the development of advanced cryptographic primitives ensuring a high level of confidence. In this thesis, we focus on their design, while proving their security under well-studied algorithmic assumptions.My work grounds itself on the linearity of homomorphic encryption, which allows to perform linear operations on encrypted data. Precisely, I built upon the linearly homomorphic encryption scheme introduced by Castagnos and Laguillaumie at CT-RSA'15. Their scheme possesses the unusual property of having a prime order plaintext space, whose size can essentially be tailored to ones' needs. Aiming at a modular approach, I designed from their work technical tools (projective hash functions, zero-knowledge proofs of knowledge) which provide a rich framework lending itself to many applications.This framework first allowed me to build functional encryption schemes; this highly expressive primitive allows a fine grained access to the information contained in e.g., an encrypted database. Then, in a different vein, but from these same tools, I designed threshold digital signatures, allowing a secret key to be shared among multiple users, so that the latter must collaborate in order to produce valid signatures. Such signatures can be used, among other applications, to secure crypto-currency wallets. Significant efficiency gains, namely in terms of bandwidth, result from the instantiation of these constructions from class groups. This work is at the forefront of the revival these mathematical objects have seen in cryptography over the last few years
APA, Harvard, Vancouver, ISO, and other styles
36

Damamme, Jonathan. "Approche multi-agents pour les problèmes de partage." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066647.

Full text
Abstract:
Cette thèse porte sur le problème d'allocation de ressource décentralisée, sans argent, où les agents n'ont qu'une connaissance partielle sur le système. L'approche de la thèse sera d'utiliser des échanges locaux, plus exactement des swaps, c'est-à-dire des échanges bilatéraux où chaque agent donne une ressource en échange d'un autre. Le travail se divise en deux parties. La première se concentre sur les problèmes de house market, avec une approche très simple et les agents travaillent sans les connaissances. Le but sera de montrer qu'elle a quand même une performance honorable. Je mettrais en valeur notamment que l'algorithme s'en sort bien par rapport à ceux de la littérature. Et je montrerais même que dans le domaine unimodal, l'algorithme est Pareto-optimal. La deuxième se présente dans une situation plus générale, et où le mécanisme présenté est divisée en 3 parties : protocole de contact, protocole de négociation, et conditions d'arrêt. chaque partie a plusieurs variantes. Je les décrirais et je les testerais expérimentalement
This thesis covers distributed resources allocation setting, without money balance, where agents have limited knowledge of the system. This thesis will use local swaps, i.e. bilateral deals, where one resource is exchanged for another. This work is divided in two parts. The first part focus the house market, with a very simple mechanism and agents don't use knowledge. The aim will to show that it has however good performances. For this, I will compare the algorithm with those of literature. I will also prove that in the single-peaked domains, this mechanism is Pareto-optimal. The second part examines a general framework. The mechanism contains three sub-protocols : contact protocol, negotiation protocols, and stop conditions. Each protocol will be described and experimented
APA, Harvard, Vancouver, ISO, and other styles
37

Maillot, Pierre. "Nouvelles méthodes pour l'évaluation, l'évolution et l'interrogation des bases du Web des données." Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0007/document.

Full text
Abstract:
Le Web des données offre un environnement de partage et de diffusion des données, selon un cadre particulier qui permet une exploitation des données tant par l’humain que par la machine. Pour cela, le framework RDF propose de formater les données en phrases élémentaires de la forme (sujet, relation, objet) , appelées triplets. Les bases du Web des données, dites bases RDF, sont des ensembles de triplets. Dans une base RDF, l’ontologie – données structurelles – organise la description des données factuelles. Le nombre et la taille des bases du Web des données n’a pas cessé de croître depuis sa création en 2001. Cette croissance s’est même accélérée depuis l’apparition du mouvement du Linked Data en 2008 qui encourage le partage et l’interconnexion de bases publiquement accessibles sur Internet. Ces bases couvrent des domaines variés tels que les données encyclopédiques (e.g. Wikipédia), gouvernementales ou bibliographiques. L’utilisation et la mise à jour des données dans ces bases sont faits par des communautés d’utilisateurs liés par un domaine d’intérêt commun. Cette exploitation communautaire se fait avec le soutien d’outils insuffisamment matures pour diagnostiquer le contenu d’une base ou pour interroger ensemble les bases du Web des données. Notre thèse propose trois méthodes pour encadrer le développement, tant factuel qu’ontologique, et pour améliorer l’interrogation des bases du Web des données. Nous proposons d’abord une méthode pour évaluer la qualité des modifications des données factuelles lors d’une mise à jour par un contributeur. Nous proposons ensuite une méthode pour faciliter l’examen de la base par la mise en évidence de groupes de données factuelles en conflit avec l’ontologie. L’expert qui guide l’évolution de cette base peut ainsi modifier l’ontologie ou les données. Nous proposons enfin une méthode d’interrogation dans un environnement distribué qui interroge uniquement les bases susceptibles de fournir une réponse
The web of data is a mean to share and broadcast data user-readable data as well as machine-readable data. This is possible thanks to rdf which propose the formatting of data into short sentences (subject, relation, object) called triples. Bases from the web of data, called rdf bases, are sets of triples. In a rdf base, the ontology – structural data – organize the description of factual data. Since the web of datacreation in 2001, the number and sizes of rdf bases have been constantly rising. This increase has accelerated since the apparition of linked data, which promote the sharing and interlinking of publicly available bases by user communities. The exploitation – interrogation and edition – by theses communities is made without adequateSolution to evaluate the quality of new data, check the current state of the bases or query together a set of bases. This thesis proposes three methods to help the expansion at factual and ontological level and the querying of bases from the web ofData. We propose a method designed to help an expert to check factual data in conflict with the ontology. Finally we propose a method for distributed querying limiting the sending of queries to bases that may contain answers
APA, Harvard, Vancouver, ISO, and other styles
38

Gaignard, Alban. "Distributed knowledge sharing and production through collaborative e-Science platforms." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00838796.

Full text
Abstract:
This thesis addresses the issues of coherent distributed knowledge production and sharing in the Life-science area. In spite of the continuously increasing computing and storage capabilities of computing infrastructures, the management of massive scientific data through centralized approaches became inappropriate, for several reasons: (i) they do not guarantee the autonomy property of data providers, constrained, for either ethical or legal concerns, to keep the control over the data they host, (ii) they do not scale and adapt to the massive scientific data produced through e-Science platforms. In the context of the NeuroLOG and VIP Life-science collaborative platforms, we address on one hand, distribution and heterogeneity issues underlying, possibly sensitive, resource sharing ; and on the other hand, automated knowledge production through the usage of these e-Science platforms, to ease the exploitation of the massively produced scientific data. We rely on an ontological approach for knowledge modeling and propose, based on Semantic Web technologies, to (i) extend these platforms with efficient, static and dynamic, transparent federated semantic querying strategies, and (ii) to extend their data processing environment, from both provenance information captured at run-time and domain-specific inference rules, to automate the semantic annotation of ''in silico'' experiment results. The results of this thesis have been evaluated on the Grid'5000 distributed and controlled infrastructure. They contribute to addressing three of the main challenging issues faced in the area of computational science platforms through (i) a model for secured collaborations and a distributed access control strategy allowing for the setup of multi-centric studies while still considering competitive activities, (ii) semantic experiment summaries, meaningful from the end-user perspective, aimed at easing the navigation into massive scientific data resulting from large-scale experimental campaigns, and (iii) efficient distributed querying and reasoning strategies, relying on Semantic Web standards, aimed at sharing capitalized knowledge and providing connectivity towards the Web of Linked Data.
APA, Harvard, Vancouver, ISO, and other styles
39

Monceyron, Eric. "Sur les problèmes de conception intelligente en ingénierie : EXPORT, un exemple de système coopératif multi-experts." Compiègne, 1991. http://www.theses.fr/1991COMPD374.

Full text
Abstract:
La conception est une des tâches intellectuelles des plus nobles et des plus complexes de l'homme. En particulier dans le monde industriel, la conception est devenue le propre de l'ingénieur, métier qu'il exerce avec très peu d'outils méthodologiques et informatiques pour les phases préliminaires du design. Les techniques d'intelligence artificielle, et tout particulièrement les systèmes à base de connaissances (SBC), offrent des moyens potentiels pour aider l'ingénieur dans son activité créatrice, et automatiser ses tâches routinières, et ainsi lui laisser obtenir la qualité souhaitée pour les études préliminaires. La réflexion menée lors de cette thèse, s'est focalisée sur les modèles théoriques du design, sur les mécanismes de représentation en IA pour la conception en ingénierie, et sur l'organisation du contrôle et de la communication pour la coopération de SBC. Une réflexion motivée par la réalisation d'un environnement intégré de conception automatisée, pour le domaine portuaire, EXPORT. Cette thèse aborde en effet la conception en ingénierie en tant qu'activité de résolution de problème. Elle propose l'utilisation de techniques des SBC pour la réalisation d'un tel environnement, intégrant des techniques et des outils divers (existants ou non). La question principale est alors d'organiser, au sein d'une architecture adaptée, de tels systèmes industriels (opérationnels) de Conception Intelligente Assistée par Ordinateur (CIAO). Il s'agit en particulier d'organiser les connaissances (de contrôle et de domaine), de les repartir pour obtenir des facteurs de qualité logicielle acceptables (maintenabilité, modularité, réutilisabilité, fiabilité, faisabilité, etc. ). Nous proposons une architecture de tableau, avec des connaissances distribuées, et un contrôle hiérarchique. Cette réponse est satisfaisante pour la classe de problèmes de conception routinière, ou interviennent des spécialistes (SBC) faiblement couplés entre eux.
APA, Harvard, Vancouver, ISO, and other styles
40

Mekhaldi, Fouzi. "Partitionnement dans les réseaux mobiles Ad-hoc : conception et évaluation de protocoles auto-stabilisants et robustes." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112342.

Full text
Abstract:
Cette thèse se positionne dans le cadre de l'algorithmique distribuée tolérante aux pannes adaptée aux réseaux mobiles à grande échelle.L'auto-stabilisation est une approche de tolérance aux pannes satisfaisante dans les systèmes ayant des perturbations transitoires, mais pas dans les réseaux très dynamiques à grande échelle. La faute est due à l'éventuelle absence totale de service lorsque les perturbations sont fréquentes.Pour remédier à cet inconvénient, nous avons introduit l'approche auto-stabilisation robuste apportant une garantie de service pendant la phase de stabilisation.La garantie de service offerte par l'auto-stabilisation robuste est assurée via : (1) le délai de reprise d'un service minimum, et(2) la préservation du service minimum pendant la convergence vers un service optimum en dépit de l'occurrence de certaines perturbations hautement tolérées.L'intérêt d'avoir la propriété auto-stabilisation robuste est d'assurer une haute disponibilité du système en dépit de l'occurrence des perturbations et changements topologiques.Dans cette thèse, nous proposons, prouvons et évaluons une suite protocolaire auto-stabilisante robuste.Dans un premier temps, nous proposons deux protocoles auto-stabilisants robustes pour les problèmes de partitionnement, et l'établissement et le maintien de la connaissance des clusters voisins.Les deux protocoles sont écrits dans le modèle à états et fonctionnent sous l'hypothèse d'un démon distribué faiblement équitable.Le protocole de partitionnement, baptisé R-BSC, permet de partitionner le réseau en clusters à 1-saut. Les noeuds choisis pour être leaders sont les plus aptes à ce rôle, et les clusters construits sont de taille bornée dans le but d'équilibrer la charge entre leaders.Le protocole R-BSC fournit rapidement, en 4 rounds seulement, un service minimum où le réseau est complètement partitionné en clusters de taille bornée.Pendant la convergence vers un service optimum, où les leaders seront bien les noeuds les plus aptes et leur nombre sera réduit localement, le service minimum restera préservé. Le protocole de connaissance des clusters voisins, baptisé R-CNK, permet à chaque leader de connaître l'identité des leaders des clusters voisins, les chemins menant vers eux, ainsi que la composition (liste des noeuds ordinaires) des clusters voisins.Le service minimum de notre protocole R-CNK, atteint après 4 rounds seulement, garantit que tout leader connaît toujours des chemins vers tous les leaders des clusters voisins. Ce service minimum est maintenu en dépit des changements de la structure hiérarchique : création / destruction des clusters, changement de composition des clusters suite au départ / arrivé des noeuds ordinaires.Un deuxième aspect de nos travaux concerne l'évaluation des protocoles conçus (R-BSC et R-CNK) dans le contexte des réseaux mobiles.Nous avons mené une étude expérimentale sous le simulateur NS2 pour évaluer les performances de nos protocoles, ainsi que ceux des protocoles auto-stabilisants correspondants.Cette étude a montré que nos protocoles R-BSC et R-CNK offrent de meilleurs performances en terme de garantie de service, d'où l'efficacité de l'approche auto-stabilisation robuste par rapport à l'auto-stabilisation classique
This dissertation is focused on fault-tolerant distributed algorithms adapted to large scale mobile networks.Self-stabilization is a fault-tolerance approach suited for systems with transient disruptions, but not for large scale dynamic networks.The fault is due to the eventual total lack of service when faults occur frequently.To address this drawback, we have introduced the robust self-stabilization approach that improves the service guarantee during the stabilization phase.The service guarantee provided by the robust self-stabilization is achieved via:(1) fast recovery to a minimum service and(2) preservation of minimum service during the convergence to an optimum service despite the occurrence of highly tolerated disruptions.Having the robust self-stabilization property ensures a high availability of the system despite the occurrence disruptions and topological changes in the network.In this thesis, we propose, evaluate and prove a series of robust self-stabilizing protocols.At first, we propose two robust self-stabilizing protocols for both problems : clustering and the maintain of knowledge about neighbor clusters.The two protocols are written in the local shared memory model and operate under the assumption of a weakly fair distributed daemon.The clustering protocol, called R-BSC, gathers the network nodes into 1-hop clusters.It allows a best choice of leaders, and it builds clusters with limited size in order to balance the load between leaders.The protocol R-BSC quickly provides, after at most 4 rounds, a minimum service where the network is completely partitioned into bounded-size clusters.During the convergence towards an optimum service, in which leaders will be the most appropriate nodes and their number will be reduced locally, the minimum service is preserved.The protocol for knowledge of neighbor clusters, called R-CNK, allows each leader to know the identity of leaders of neighbor clusters, paths leading to them, and the composition (list of ordinary nodes) of its neighbor clusters.The minimum service provided by of R-CNK protocol, reached after 4 rounds, ensures that every leader always knows paths towards all the leaders of neighbor clusters.We conducted an experimental study using the simulator NS2 to evaluate and to compare the performance of our protocols (R-BSC and R-CNK) with those of their self-stabilizing version in the context of mobile networks.This study confirmed that our protocols R-BSC and R-CNK offer a better service guarantee
APA, Harvard, Vancouver, ISO, and other styles
41

Ertzscheid, Olivier. "Les enjeux cognitifs et stylistiques de l'organisation hypertextuelle : le Lieu, Le Lien, Le Livre." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2002. http://tel.archives-ouvertes.fr/tel-00006260.

Full text
Abstract:
L'enjeu de ce doctorat est de montrer comment la perception et les pratiques liées à la figure de l'hypertexte permettent d'entrevoir de profonds bouleversements dans notre rapport à l'écrit (document numérique, nouveaux genres littéraires, textualité renouvelée), à l'organisation de la connaissance, ainsi qu'à la manière dont s'agrègent, se constituent, se développent et se transforment les différents types de rapport au réel présents dans toute organisation sociale réticulée. L'analyse critique de ces transformations nous permet de préciser comment se met progressivement en place une nouvelle écologie cognitive, en quoi elle est rendue nécessaire, et quels sont les outils (typologie englobante des processus de liaison entre entités) et les pratiques sociales émergentes qui la fondent.

Dans notre premier chapitre, nous faisons d'abord un point sur les effets déjà mesurables de l'organisation hypertextuelle dans le rapport à l'écrit pour isoler les transformations cognitives occasionnées par ce nouveau support, pour isoler également la nouvelle organisation des structures traditionnelles de l'énonciation dans le processus de communication (rapports auteur-lecteur, agencements collectifs d'énonciation). Nous concluons par une typologie des nouveaux genres hypertextuels (liés notamment à l'utilisation de générateurs) et sur le statut littéraire de ces productions.
Notre second chapitre aborde les aspects plus « théoriques » de l'organisation hypertextuelle au travers de l'étude systématique de ses procédés de liaison. Après un état de l'art de la question, nous définissons une typologie englobante des liens hypertextuels prenant en compte leurs aspects informatiques, les structures rhétoriques et formelles qui les sous-tendent et les différents types de rapport entre ces « entités-liens » autorisant à qualifier différentes organisations hypertextuelles. Sur tous ces points, les propositions formulées dans ce travail devront permettre d'améliorer les pratiques de navigation et de réduire certains effets liés (surcharge cognitive, désorientation).
Notre troisième chapitre montre que ce que ces liens révèlent du fonctionnement de la pensée humaine (mode essentiellement associatif) est en train de changer la manière dont les systèmes et les organisations sociales se constituent et se développent, en mettant en place, de manière effective, des artefacts et de processus habituellement implicites et dont l'enjeu sera, pour le chercheur, d'accompagner le passage à l'explicite. Ce dernier chapitre s'appuie sur le dispositif expérimental FoRSIC et l'utilisation qu'il fait de différents types ontologiques, ce dernier étant caractéristique des ces nouveaux rapports au savoir que notre travail essaie de qualifier plus que de quantifier.
APA, Harvard, Vancouver, ISO, and other styles
42

SIMON, CATHERINE. "Specification et simulation d'une architecture multiprocesseur prolog." Toulouse 3, 1986. http://www.theses.fr/1986TOU30153.

Full text
Abstract:
Un modele d'interpretation repartie du langage prolog prenant en compte les parallelismes et et ou est presente. Un systeme de simulation a ete ecrit afin de valider les concepts fonctionnels. Des resultats statiques: taille de l'espace memoire occupe, taille des messages, temps d'execution et des resultats dynamiques: nombre de processeurs actifs sont donnes. Une specification fonctionnelle du processeur elementaire constitue de deux unites: une pour la resolution et l'autre pour l'unification traduit les concepts fonctionnels du modele. Une comparaison des performances de la machine est presentee afin de determiner le meilleur compromis topologique. La structure reguliere et incrementale de l'hypercube, son faible diametre en font un bon candidat. Enfin, l'orientation du domaine d'application de la machine vers les bases de connaissances a provoque la prise en compte de nouvelles fonctionnalites
APA, Harvard, Vancouver, ISO, and other styles
43

Fraslin, Marie. "Evaluating the capacity of a virtual r&d community of practice : The case of ALSTOM power hydro." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI059/document.

Full text
Abstract:
Nous basant sur plusieurs études de cas effectuées au sein de communautés R&D virtuelles d'Alstom Power Hydro, nous démontrons d'une part, qu'un forum peut soutenir différents types d'intéractions allant de la transmission d'informations à la co-construction de connaissances et co-production de solution. Opérationnalisant et améliorant des grilles scientifiques visant à caractériser des communautés de pratiques virtuelles, nous démontrons aussi, qu'il existe un lien entre la configuration d'une communauté et le type de ses intéractions en ligne. Nous démontrons qu’il existe une configuration optimale, de communautés de pratiques virtuelles appliquées à la R&D, qui garantit des intéractions de type co-construction de connaissance et co-production de solution entre ses membres. A l'heure où Microsoft équipe chaque jour 20000 nouveaux utilisateurs de l'application Share point, cette thèse prend tout sens. En opérationnalisant une méthode d'évaluation des communautés de pratiques virtuelles, et en apportant des conseils pour déployer un forum appliqué à la R&D, nous accompagnons tout projet de création de communauté R&D virtuelle et/ou d'instrumentation de ses intéractions par un forum
In this dissertation, we explore the potential of a forum to support collaboration and knowledge sharing among Virtual Communities of practice. We thus propose a coding scheme based on the Rainbow model and test it in order to analyze the content of two forums of R&D VcoP. We demonstrate that a forum supports asynchronous argumentative activities and thus enhances global collaboration and knowledge sharing among R&D VcoP members. We then propose an enriched model based on the work of Line Dube and tested it to characterize the R&D VcoP studied. We prove that the community configuration has a direct impact on the online dynamic of the community. We point out the main factors that play a key role in fostering online collaboration and knowledge sharing between R&D Virtual community members
APA, Harvard, Vancouver, ISO, and other styles
44

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Full text
Abstract:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
APA, Harvard, Vancouver, ISO, and other styles
45

Ferreira, Leite Alessandro. "A user-centered and autonomic multi-cloud architecture for high performance computing applications." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112355/document.

Full text
Abstract:
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud
Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds
APA, Harvard, Vancouver, ISO, and other styles
46

Carpen-Amarie, Alexandra. "BlobSeer as a data-storage facility for clouds : self-Adaptation, integration, evaluation." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0066/document.

Full text
Abstract:
L’émergence de l’informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l’adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d’auto-adaptation pour des systèmes de gestion de données, afin qu’ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l’échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d’offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l’auto-connaissance, l’auto-protection et l’auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s’appuyant sur BlobSeer, afin d’optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l’avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l’utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid’5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques
The emergence of Cloud computing brings forward many challenges that may limit the adoption rate of the Cloud paradigm. As data volumes processed by Cloud applications increase exponentially, designing efficient and secure solutions for data management emerges as a crucial requirement. The goal of this thesis is to enhance a distributed data-management system with self-management capabilities, so that it can meet the requirements of the Cloud storage services in terms of scalability, data availability, reliability and security. Furthermore, we aim at building a Cloud data service both compatible with state-of-the-art Cloud interfaces and able to deliver high-throughput data storage. To meet these goals, we proposed generic self-awareness, self-protection and self-configuration components targeted at distributed data-management systems. We validated them on top of BlobSeer, a large-scale data-management system designed to optimize highly-concurrent data accesses. Next, we devised and implemented a BlobSeer-based file system optimized to efficiently serve as a storage backend for Cloud services. We then integrated it within a real-world Cloud environment, the Nimbus platform. The benefits and drawbacks of using Cloud storage for real-life applications have been emphasized in evaluations that involved data-intensive MapReduce applications and tightly-coupled, high-performance computing applications
APA, Harvard, Vancouver, ISO, and other styles
47

Jensen, Karina. "Accelerating Global Product Innovation through Cross-cultural Collaboration : Organizational Mechanisms that Influence Knowledge-sharing within the MNC." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2012. http://tel.archives-ouvertes.fr/tel-00840215.

Full text
Abstract:
Globalization, time to market, and customer responsiveness present continuous challenges for achieving market innovation across cultures. A cross-cultural and networked business environment has created increased demand for knowledge-sharing within the multinational corporation (MNC). The inability of geographically distributed team members to effectively share and communicate ideas and solutions can result in a lack of product innovation, delayed product introductions, and reduced sales and market opportunities. This requires managers to leverage cross-cultural team knowledge in order to improve the design and delivery of innovative customer solutions worldwide. This dissertation thus intends to examine and identify organizational mechanisms that facilitate cross-cultural collaboration and knowledge-sharing for geographically distributed teams responsible for the front end of innovation.The resource-based and knowledge-based views of the firm inform this dissertation where integrated cognitive and social practices serve an important role for innovation. Through qualitative research, I will examine organizational mechanisms that influence interactions between the project leader and the geographically distributed team during global product launches, from product concept to market introduction. Since there is a lack of empirical research conducted with organizations on cross-cultural collaboration and global innovation, there is a significant opportunity to advance research within innovation management while assisting organizations in the development of knowledge-sharing capabilities that serve as competitive advantage in conceiving and introducing new products to international markets.The purpose of this dissertation research is to investigate and demonstrate how MNCs can facilitate the cross-cultural collaboration process in order to effectively conceive and execute innovation strategies for new products. The research intends to develop a framework and model for cross-cultural team collaboration in exploring and responding to the following research question: How can MNCs optimize cross-cultural team collaboration in order to strengthen the planning and execution of global innovation strategies? This research responds to organizational needs for sharing knowledge amongst cross-cultural teams in order to accelerate responsiveness to international market opportunities.
APA, Harvard, Vancouver, ISO, and other styles
48

Arce, Arguedas Maria Lourdes. "La distribution des connaissances dans la gestion du risque : analyse des interactions dans le cadre du Comité de la protection civile de la Mairie de Tecoluca - Salvador." Thèse, 2013. http://hdl.handle.net/1866/10019.

Full text
Abstract:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
The subject of risk management has always interested me, especially after I lived through two hurricanes and a devastating earthquake in El Salvador. Although there is a lot of literature on this subject, often linked to the question of climate change, we do not know how governmental and civil organizations deal with risk management on a daily basis. Based on an ethnographic study of the Civil Protection Commission of the mayoralty of Tecoluca, El Salvador, I observed processes that are taking place in the research and analysis of structural factors causing situations of vulnerability. To do this, I adopted an approach based on the study of interactions, involving the theory of distributed cognition and actor-network theory. As I show, the risk management seen as a participatory process is characterized, on one side, by the cooperation and coordination of individuals and, on the other side, by the contribution of tools, technologies, materials and methods that contribute to the detection of risk. This requires the mobilization of knowledge that must be produced, shared and distributed among the members of a group through the various artefacts, tools, methods and technologies that they mobilize and that mobilize them. In this regard, the theory of distributed cognition allows me to explore the interactions that occur within a working group by focusing on what contributes to the act of knowing, an activity is not just individual but also collective and distributed. Moreover, the actor-network theory allows me to show how in the execution of this task (risk management), the active contribution of non-human actors, both by themselves and in relation to human actors, participates in activities of detection and risk prevention.
APA, Harvard, Vancouver, ISO, and other styles
49

Ovalle, Carranza Demetro Arturo. "Contribution à l'étude du raisonnement en univers multi-agent : KIDS, une application pour l'interprétation d'images biomédicales." Phd thesis, 1991. http://tel.archives-ouvertes.fr/tel-00339255.

Full text
Abstract:
Parmi les systèmes a base de connaissances fondes sur des techniques d'intelligence artificielle nous nous intéressons plus particulièrement aux systèmes de seconde génération (systèmes a schémas de raisonnement multiples) de type multi-agent. Le paradigme multi-agent est issu des approches de l'intelligence artificielle distribuée et permet de pallier les limitations rencontrées lors de la resolution de problèmes complexes. Le but de ce travail est d'analyser le raisonnement, et plus particulièrement d'aborder son étude en univers multi-agent. Il convient de préciser que celui-ci n'est pas un concept indépendant en lui-même: il est au contraire étroitement lie a d'autres problématiques telles que l'étude et la représentation des connaissances, la spécification des structures de contrôle, des protocoles de communication et d'allocation des taches ou le degré de sophistication de l'architecture interne des agents. Pour ce fait deux typologies originales, issues de l'étude approfondie de la connaissance et du raisonnement, seront proposées au long de cette thèse: l'une a caractère formelle l'autre a caractère technologique. La typologie formelle pour la classification des connaissances et du raisonnement permet une vue synthétique d'éléments souvent présentes de façon éparse et s'avère un outil d'assistance a la modélisation des connaissances et des raisonnements. La typologie technologique prend en compte les paramètres régissant les raisonnements propres a la technologie multi-agent non seulement au niveau individuel de l'agent mais aussi ceux développés au sein du groupe d'agents. Ces travaux ont contribue a la conception du système multi-agent kids (knowledge based image diagnosis system), système multi-agent dédié a l'interprétation d'images biomédicales. Ce système, par la variété des formes de connaissances et de raisonnement engages, illustre l'intérêt des typologies formelle et technologique proposées
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography