Dissertations / Theses on the topic 'Gestion de données décentralisée'

To see the other types of publications on this topic, follow the link: Gestion de données décentralisée.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Gestion de données décentralisée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Makhloufi, Rafik. "Vers une gestion adaptative des réseaux complexes : cas de la surveillance décentralisée de données agrégées." Troyes, 2012. http://www.theses.fr/2012TROY0006.

Full text
Abstract:
Les infrastructures de gestion autonomes basées sur des fonctions self-* offrent un premier degré d'autonomie mais restent souvent fondées sur des approches non-adaptatives. Cependant, leurs réseaux cibles sont dynamiques en termes, par exemple, de taille, mobilité, services et usages. Adapter ces infrastructures au contexte opérationnel des réseaux qui les supportent est donc essentiel pour garantir leur performance et minimiser leur coût. Le travail mené dans cette thèse vise à concevoir une infrastructure de gestion autonome capable de s'auto-adapter au contexte opérationnel du réseau qu'elle contrôle. La fonction de gestion à laquelle nous nous intéressons est la surveillance décentralisée d'informations agrégées, qui peut être basée sur des protocoles épidémiques, à base d’arbres ou de vue située. Pour ce faire, nous proposons une approche auto-adaptative et décentralisée, basée entre autres sur l'inférence floue et sur la prise de décision multicritère. Pour cela, nous avons étudié les protocoles d'agrégation existants, puis nous avons comparé un protocole représentatif de chaque catégorie. En se fondant sur ces résultats, l'approche proposée analyse continuellement l'état du réseau afin de déduire les propriétés du contexte courant et choisit la stratégie d'agrégation adéquate en fonction de celui-ci. Ainsi, la stratégie sélectionnée est celle qui maximise la performance de l'agrégation et minimise son coût. La validation multicritère par simulation de l’approche proposée montre que celle-ci fournit une bonne performance avec un coût acceptable
Autonomous management infrastructures based on self-* functions currently offer a first degree of autonomy, but they are often based on non-adaptive approaches. Conversely, their target networks are dynamics in terms of, for example, size, mobility, services and usages. Thus, adapting self-management infrastructures to the supporting network operational behavior is essential in order to ensure their performance and minimize their cost. The work carried out in this thesis aims at de-signing an autonomous management infra-structure able to adapt itself to the operational context of the managed network. The management function we are interested in is the decentralized monitoring of aggregated information, which can be based on gossip, aggregation trees or situated view protocols. To achieve these objectives, we propose a de-centralized self-adaptive management frame-work, based on fuzzy inference and multiple criteria decision making. For this purpose, we surveyed the existing decentralized aggregation protocols, and then we benchmarked one typical protocol from each category. Based on the obtained results, the proposed approach continuously analyzes the network state in order to retrieve the properties of the current context, and then selects the best aggregation strategy to use accordingly. Thus, the selected strategy is the one that maximizes the performance of the aggregation and minimizes its cost. The multiple criteria validation of the pro-posed approach through simulation shows that this one provides a good performance with an acceptable cost
APA, Harvard, Vancouver, ISO, and other styles
2

Matta, Natalie. "Vers une gestion décentralisée des données des réseaux de capteurs dans le contexte des smart grids." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0010/document.

Full text
Abstract:
Cette thèse s’intéresse à la gestion décentralisée des données récoltées par les réseaux de capteurs dans le contexte des réseaux électriques intelligents (smart grids). Nous proposons une architecture décentralisée basée sur les systèmes multi-agents pour la gestion des données et de l’énergie dans un smart grid. En particulier, nos travaux traitent de la gestion des données des réseaux de capteurs dans le réseau de distribution d’un smart grid et ont pour objectif de lever deux verrous essentiels : (1) l'identification et la détection de défaillances et de changements nécessitant une prise de décision et la mise en œuvre des actions correspondantes ; (2) la gestion des grandes quantités de données qui seront récoltées suite à la prolifération des capteurs et des compteurs communicants. La gestion de ces informations peut faire appel à plusieurs méthodes, dont l'agrégation des paquets de données sur laquelle nous nous focalisons dans cette thèse. Nous proposons d’agréger (PriBaCC) et/ou de corréler (CoDA) le contenu de ces paquets de données de manière décentralisée. Ainsi, le traitement de ces données s'effectuera plus rapidement, ce qui aboutira à une prise de décision rapide et efficace concernant la gestion de l'énergie. La validation par simulation de nos contributions a montré que celles-ci répondent aux enjeux identifiés, notamment en réduisant le volume des données à gérer et le délai de communication des données prioritaires
This thesis focuses on the decentralized management of data collected by wireless sensor networks which are deployed in a smart grid, i.e. the evolved new generation electricity network. It proposes a decentralized architecture based on multi-agent systems for both data and energy management in the smart grid. In particular, our works deal with data management of sensor networks which are deployed in the distribution electric subsystem of a smart grid. They aim at answering two key challenges: (1) detection and identification of failure and disturbances requiring swift reporting and appropriate reactions; (2) efficient management of the growing volume of data caused by the proliferation of sensors and other sensing entities such as smart meters. The management of this data can call upon several methods, including the aggregation of data packets on which we focus in this thesis. To this end, we propose to aggregate (PriBaCC) and/or to correlate (CoDA) the contents of these data packets in a decentralized manner. Data processing will thus be done faster, consequently leading to rapid and efficient decision-making concerning energy management. The validation of our contributions by means of simulation has shown that they meet the identified challenges. It has also put forward their enhancements with respect to other existing approaches, particularly in terms of reducing data volume as well as transmission delay of high priority data
APA, Harvard, Vancouver, ISO, and other styles
3

Abdallah, Nada. "Raisonnements standard et non-standard pour les systèmes décentralisés de gestion de données et de connaissances." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00536926.

Full text
Abstract:
Les systèmes d'inférence pair-à-pair (P2PIS) sont constitués de serveurs autonomes appelés pairs. Chaque pair gère sa propre base de connaissances (BC) et peut communiquer avec les autres pairs via des mappings afin de réaliser une inférence particulière au niveau global du système. Dans la première partie de la thèse, nous proposons un algorithme totalement décentralisé de calcul de conséquences par déduction linéaire dans les P2PIS propositionnels et nous étudions sa complexité communicationnelle, en espace et en temps. Nous abordons ensuite la notion d'extension non conservative d'une BC dans les P2PIS et nous exhibons son lien théorique avec la déduction linéaire décentralisée. Cette notion est importante car elle est liée à la confidentialité des pairs et à la qualité de service offerte par le P2PIS. Nous étudions donc les problèmes de décider si un P2PIS est une extension conservative d'un pair donné et de calculer les témoins d'une possible corruption de la BC d'un pair de sorte à pouvoir l'empêcher. La seconde partie de la thèse est une application directe des P2PIS au domaine des systèmes de gestion de données pair-à-pair (PDMS) pour le Web Sémantique. Nous définissons des PDMS basés sur la logique de description DL-LITER pour lesquels nous fournissons les algorithmes nécessaires de test de consistance et de réponse aux requêtes. Notre approche repose sur les P2PIS propositionnels car nous réduisons les problèmes de la reformulation des requêtes et de test de l'inconsistance à des problèmes de calcul de conséquences en logique propositionnelle.
APA, Harvard, Vancouver, ISO, and other styles
4

Javet, Ludovic. "Privacy-preserving distributed queries compatible with opportunistic networks." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG038.

Full text
Abstract:
Dans la société actuelle, où l'IoT et les plateformes numériques transforment notre vie quotidienne, les données personnelles sont générées à profusion et leur utilisation échappe souvent à notre contrôle. Des législations récentes comme le RGPD en Europe proposent des solutions concrètes pour réguler ces nouvelles pratiques et protéger notre vie privée. Parallèlement, sur le plan technique, de nouvelles architectures émergent pour répondre à ce besoin urgent de se réapproprier nos propres données personnelles. C'est le cas des systèmes de gestion des données personnelles (PDMS) qui offrent un moyen décentralisé de stocker et de gérer les données personnelles, permettant aux individus d'avoir un meilleur contrôle sur leur vie numérique.Cette thèse explore l'utilisation distribuée de ces PDMS dans un contexte de réseau opportuniste, où les messages sont transférés d'un appareil à l'autre sans nécessiter d'infrastructure. L'objectif est de permettre la mise en œuvre de traitements complexes croisant les données de milliers d'individus, tout en garantissant la sécurité et la tolérance aux pannes des exécutions.L'approche proposée utilise les environnements d'exécution de confiance pour définir un nouveau paradigme informatique, intitulé Edgelet computing, qui satisfait à la fois les propriétés de validité, de résilience et de confidentialité. Les contributions comprennent (1) des mécanismes de sécurité pour protéger les exécutions contre les attaques malveillantes visant à piller les données personnelles, (2) des stratégies de résilience pour tolérer les défaillances et les pertes de messages induites par l'environnement décentralisé, (3) des validations approfondies et des démonstrations pratiques des méthodes proposées
In today's society, where IoT and digital platforms are transforming our daily lives, personal data is generated in profusion and its usage is often beyond our control. Recent legislations like the GDPR in Europe propose concrete solutions to regulate these new practices and protect our privacy. Meanwhile, on the technical side, new architectures are emerging to respond to this urgent need to reclaim our own personal data. This is the case of Personal Data Management Systems (PDMS) which offer a decentralized way to store and manage personal data, empowering individuals with greater control over their digital lives.This thesis explores the distributed use of these PDMS in an Opportunistic Network context, where messages are transferred from one device to another without the need for any infrastructure. The objective is to enable the implementation of complex processing crossing data from thousands of individuals, while guaranteeing the security and fault tolerance of the executions.The proposed approach leverages the Trusted Execution Environments to define a new computing paradigm, entitled Edgelet computing, that satisfies both validity, resiliency and privacy properties. Contributions include: (1) security mechanisms to protect executions from malicious attacks seeking to plunder personal data, (2) resiliency strategies to tolerate failures and message losses induced by the fully decentralized environment, (3) extensive validations and practical demonstrations of the proposed methods
APA, Harvard, Vancouver, ISO, and other styles
5

Bou, Farah Mira. "Méthodes utilisant des fonctions de croyance pour la gestion des informations imparfaites dans les réseaux de véhicules." Thesis, Artois, 2014. http://www.theses.fr/2014ARTO0208/document.

Full text
Abstract:
La popularisation des véhicules a engendré des problèmes de sécurité et d’environnement. Desprojets ont été lancés à travers le monde pour améliorer la sécurité sur la route, réduire l’encombrementdu trafic et apporter plus de confort aux conducteurs. L’environnement des réseaux devéhicules est complexe et dynamique, les sources sont souvent hétérogènes, de ce fait les informationséchangées peuvent souvent être imparfaites. La théorie des fonctions de croyance modélisesouplement les connaissances et fournit des outils riches pour gérer les différents types d’imperfection.Elle est utilisée pour représenter l’incertitude, gérer les différentes informations acquises etles fusionner. Nous nous intéressons à la gestion des informations imparfaites échangées entre lesvéhicules concernant les événements sur la route. Les événements locaux et les événements étendusn’ayant pas les mêmes caractéristiques, les travaux réalisés les distinguent. Dans un environnementsans infrastructure où chaque véhicule a son propre module de fusion, l’objectif est de fournir auxconducteurs la synthèse la plus proche possible de la réalité. Différents modèles fondés sur desfonctions de croyance sont proposés et différentes stratégies sont étudiées : affaiblir ou renforcervers l’absence de l’événement pour prendre en compte le vieillissement des messages, garder lesmessages initiaux ou seulement le résultat de la fusion dans la base des véhicules, considérer la miseà jour du monde, prendre en compte l’influence du voisinage pour gérer la spatialité des embouteillages.Les perspectives restent nombreuses, certaines sont développées dans ce manuscrit commela généralisation des méthodes proposées à tous les événements étendus tels que les brouillards
The popularization of vehicles has created safety and environmental problems. Projects havebeen launched worldwide to improve road safety, reduce traffic congestion and bring more comfortto drivers. The vehicle network environment is dynamic and complex, sources are often heterogeneous,and therefore the exchanged information may be imperfect. The theory of belief functionsoffers flexibility in uncertainty modeling and provides rich tools for managing different types of imperfection.It is used to represent uncertainty, manage and fuse the various acquired information.We focus on the management of imperfect information exchanged between vehicles concerningevents on the road. The carried work distinguishes local events and spatial events, which do nothave the same characteristics. In an environment without infrastructure where each vehicle is afusion center and creates its own vision, the goal is to provide to each driver the synthesis of thesituation on the road as close as possible to the reality. Different models using belief functionsare proposed. Different strategies are considered: discount or reinforce towards the absence of theevent to take into account messages ageing, keep the original messages or just the fusion result invehicle database, consider the world update, manage the spatiality of traffic jam events by takinginto account neighborhood. Perspectives remain numerous; some are developed in the manuscriptas the generalization of proposed methods to all spatial events such as fog blankets
APA, Harvard, Vancouver, ISO, and other styles
6

Zair, Tarik. "La gestion décentralisée du développement économique au Maroc." Toulouse 1, 2006. http://www.theses.fr/2006TOU10001.

Full text
Abstract:
Essai de mise en forme d’un État minimal, la décentralisation territoriale est admise aujourd’hui comme une recette inéluctable du développement local. Au Maroc, l’option en faveur des collectivités locales, en tant qu’acteurs économiques, est le résultat d’une “nécessité utilitaire” qui s’est imposée au pouvoir central. L’État vise, par son biais, à occulter son incapacité à sortir le pays de ses crises économiques et à rendre ainsi responsables les pouvoirs décentralisés des échecs éventuels. La gestion décentralisée du développement économique révèle une multitude de contraintes juridiques que les réformes de 2002 n’ont pas pu surmonter. Les cadres institutionnels et territoriales décentralisés s’avèrent inadaptés. La répartition des compétences économiques s’est faite au détriment des autonomies locales. Le caractère spécifique de la compétence économique favorise les contraintes normatives qui s’imposent aux pouvoirs décentralisés. La politisation accrue du développement local l’a certainement fragilisé. La divergence des intérêts en présence s’est faite au détriment de la clarté indispensable à la réussite économique. Le développement a pris, par conséquent, une dimension redistributive et non créatrice de richesses. La mise en œuvre de la politique décentralisée de développement, malgré sa diversité, s’est traduite par des carences apparentes. La planification du développement local et sa gestion témoignent des difficultés à articuler les deux. L’effectivité d’une politique décentralisée de développement est tributaire de l’amélioration des ressources consacrées au développement local ainsi que du dépassement des lacunes méthodologiques
Attempt to shapeg a minimal State, the territorial decentralization is considered nowadays as on inevitable way to reach the local development. In Morocco, the option in favour of the local authorities, as economic agents, is the result of an “utilitarian necessity” which imposed itself on the central power. The State aims at hiding its inability to get the country out of its economic crises and to make responsible the decentralized power responsible for possible failures. Decentralized management of the economic development disclose a large amount of legal constraints that the reforms of 2002 were not able to overcome. Decentralized institutional and territorial frameworks turn out to be ill-adapted. The distribution of the economic skills was done at the expense on the local autonomies. The specific character of the economic skill favours the normative constraints which impose themselves on the decentralized powers. The growing politicization of the local development has probably weakened it. The difference of interest involved was done at the expense of the clarity which is necessary to the economic success. Thus, the development has taking a redistributive dimension and has not created wealth. The application of decentralized politic of development, in spite of its variety, resulted in visible shortcomings. The planning of the local development and its management show the difficulties to connect the two. The effectiveness of a decentralized politic of development is dependent on the improvement of the ressources devoted to the local development and on the overcoming of methodological gaps
APA, Harvard, Vancouver, ISO, and other styles
7

Rahim-Amoud, Rana. "Gestion autonome et décentralisée des réseaux MPLS-DiffServ TE." Troyes, 2008. http://www.theses.fr/2008TROY0001.

Full text
Abstract:
La taille des réseaux est de plus en plus importante et leur configuration et leur pilotage sont devenus complexes. De ce fait, la communauté réseau devient consciente de la nécessité de permettre aux réseaux de se configurer et de se piloter de manière autonome. Cette nécessité nous a conduit à proposer une architecture adaptative basée sur les Systèmes Multi- Agents (SMA) dans le but d'assurer une gestion autonome et décentralisée du réseau MPLS-DiffServ TE. MPLS-DiffServ TE permet de fournir une différenciation de service tout en optimisant l'utilisation des ressources du réseau mais dont la gestion est devenue très complexe. Nous avons alors défini les caractéristiques que nous pensons nécessaires pour créer un réseau autonome et avons montré qu'elles sont toutes fournies par les SMA. Nous avons également proposé une stratégie de gestion de LSP, basée sur une approche fondée sur le trafic et dépendant des conditions du réseau. Le but de cette stratégie est de diminuer le nombre de LSP et le nombre d'opérations de signalisation dans le réseau MPLS-DiffServ TE. Pour définir cette stratégie, nous avons étudié le choix de l'approche appropriée pour concevoir un réseau MPLS, les facteurs qui influencent les décisions du SMA, les cas d'échanges entre les différents agents ainsi que le traitement à effectuer à la réception de chaque type de requête. Dans notre proposition, nous avons distingué deux cas de figure, le premier associe un pourcentage fixe de toute la capacité du lien physique à chaque classe de service de DiffServ, tandis que le deuxième utilise des pourcentages dynamiques gérés par le SMA. Les tests réalisés ont montré l'efficacité de notre stratégie qui a permis de réduire le nombre de LSP et d'opérations de signalisation ainsi que le taux de blocage dans le réseau
The size of the networks is increasingly important and their configuration and their piloting is becoming complex. So the network community is, more and more, conscious of the need for allowing the networks to be self-configured and self-controlled in an autonomous way. This need led us to propose an adaptive architecture based on a Multi-Agent System (MAS) to ensure an autonomous and decentralized management of MPLS DiffServ-TE network. MPLS DiffServ-TE combines the advantages of DiffServ and MPLS-TE by allowing a differentiation of services and traffic forwarding on the basis of the required resources. However, the management of such a network is not a simple function and could not be done manually. So, we defined the characteristics which we think necessary to create an autonomous network and we showed that all these characteristics are provided by the MAS. We also proposed an LSP management strategy, based on a traffic-driven approach and dependant on the traffic load. The goal of this strategy is to reduce the number of LSPs and the number of signaling operations in the network. To define this strategy, we studied the choice of the suitable approach to design an MPLS network, the factors which influence the MAS decisions, the cases of exchanges between the various agents as well as the treatments to be realized at the reception of each type of request. In our proposal, we distinguished two different cases, the first one allocates a fixed percentage of all the physical link capacity for each class of service of DiffServ, while the second one allocates a dynamic percentage managed by the MAS. The tests carried out showed the effectiveness of our strategy which reduces the number of LSPs and the number of signaling operations as well as the blocking rate in the network
APA, Harvard, Vancouver, ISO, and other styles
8

Caire, Raphaël. "Gestion de la production décentralisée dans les réseaux de distribution." Grenoble INPG, 2004. http://www.theses.fr/2004INPG0084.

Full text
Abstract:
Les dérégulations du marché de l'énergie, suivies de nombreuses privatisations, et les désintégrations verticales ont amené une restructuration complète du secteur électrique avec de nouvelles formes d'organisation. L'ouverture des marchés de l'énergie ainsi que les développements technologiques des moyens de production de petite et moyenne puissance encouragent fortement cette évolution. Une méthodologie d'étude systématique de transmission d'impact entre la basse et moyenne tension est d'abord proposée, après un rapide état de l'art des différents impacts possibles. Le plan de tension est alors identifié comme l'impact le plus critique. Cette criticité est appuyée par des études quantitatives sur des réseaux typiques français, et confirmée par la littérature associée. Afin de solutionner cet impact, une recherche des moyens d'action sur le plan de tension du réseau de distribution ainsi que leur modélisation est réalisée. Les grandeurs de consigne des moyens de réglage disponibles étant discrètes ou continues, des outils spécifiques sont développées pour les coordonner. Cette coordination s'appuie sur des algorithmes d'optimisation développés en tenant compte de la spécificité inhérente aux grandeurs de réglage. Une méthodologie de choix ou de localisation optimale des moyens de réglage associés à une gestion du plan de tension est présentée. Enfin, des stratégies " décentralisées " de coordination des moyens de réglage et une proposition pour la validation expérimentale sont présentés, grâce à un simulateur temps réel, permettant de tester les stratégies de coordination et les moyens de communication nécessaires
Deregulations of the energy market, followed by many privatizations, and vertical disintegrations brought a complete reorganization of the electric sector. The opening of the energy markets as well as the technological developments of the means of production of small and average power strongly encourage this evolution. A systematic methodology to study the transmission of impacts between the Low and Medium Voltage is initially proposed, after a quick state of the art of the various possible impacts. The voltage deviattion is then identified as the most critical impact. This criticality is supported by quantitative studies on French typical networks, and is confirmed by the related literature. In order to solve this impact, a research of the means of action within tension of the distribution network and their modeling is carried out. As the manipulated variables of the means of adjustment available are discrete or continuous, specific tools are then developed to coordinate them. This coordination is pressed on optimization algorithms developed by holding account of inherent specificity with the manipulated variables. A methodology for the choice or optimal location of the adjustment means associated with a management of the voltage deviation is presented. Lastly, "decentralized" strategies of coordination for the means of adjustment and a proposal for a experimental validation are presented, thanks to a real time simulator, making it possible to test the strategies of coordination and the necessary means of communication
APA, Harvard, Vancouver, ISO, and other styles
9

Awah, Abdellahi. "Approche organisationnelle de l'émergence d'une gestion stratégique décentralisée des universités." Nice, 1996. http://www.theses.fr/1996NICE0021.

Full text
Abstract:
La crise de l'administration centralisee des universites a pousser les pouvoirs publics a renover la politique d'enseignement superieur. La politique contractuelle qui s'inscrit dans le cadre du plan de modernisation de l'administration francaise lancee en 1989 vise a elargir l'autonomie de gestion des etablissements universitaires. En introduisant la notion de projet d'etablissement, elle incite les universites a presenter des plans strategiques de developpement qui se traduisent concretement en objectifs et programmes d'action. Dans ces conditions, se pose la question de l'adaptabilite des outils de gestion aux organisations universitaires en raison de leur specificite tant sur le plan des structures que sur celui des processus de decision. Nous nous interrogeons sur la possibilite d'une gestion strategique adaptee aux universites en tant qu'organisations publiques, compte tenu de la nouvelle relation contractuelle entre l'etat et l'universite. A partir d'une approche organisationnelle basee sur la theorie configurationnelle de mintzberg, on arrive a la conclusion que toute strategie d'etablissement doit tenir compte de la fragmentation structurelle de l'universite, de l'autonomie professionnelle et de la complexite des processus de decision. Sa mission est alors d'introduire un minimum de coherence dans les multiples strategies sectorielles des acteurs
The centralised administration crisis of university provides the state to change high education policy. The contractual policy takes part in modernization programm of french administration, launched in 1989 ; it follows the objective of extending the management autonomy of universities. Introducing the notion of establishment project, it invites universities to present strategic planning of developpement concretly translated by aims and programs of action. In these conditions, one may ask areself if adaptability of management tools can suit universities. The reason is that they are specific on a level structure and decision process at the same time. Therefore, the main question of our reasarch is to study the possibility of strategic management specific to universities. Begenning by an organizational approach based on mintzberg theory, we conclude that each university's strategy has to take into account the structural fragmentation, the academic autonomy and the complexity of decision process. Its mission is to introduce a minimum coherence in different sectorial strategies of actors
APA, Harvard, Vancouver, ISO, and other styles
10

Zhang, He. "Gestion décentralisée de réseaux continus à forte disponibilité en aéronautique." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10032/document.

Full text
Abstract:
L’évolution vers des systèmes toujours plus électriques concerne tous les moyens de transport. En particulier, les prochaines générations d’avions commerciaux. Cette tendance, amorcée avec l’Airbus A380 et le Boeing 787, devrait se poursuivre et s’amplifier. Un avion de constitution plus électrique, où l’axe de transmission principal de puissance de nature électrique se substituerait, au moins en partie, aux axes de types pneumatique, hydraulique et mécanique, pourrait être source d’amélioration au regard de critères écologiques et économiques (gain en masse, accroissement de l’efficacité énergétique, réduction des coûts de maintenance, etc.).Le développement de réseaux électriques locaux, de type continu à échange d’énergie, pourrait favoriser cette démarche. Des sources locales de production d’électricité, des charges bidirectionnelles en puissance, ainsi que des systèmes de stockage d’énergie et de dissipation, seraient alors interconnectés par un bus continu de tension, associés à des protections électriques adaptées.Plusieurs stratégies de gestion énergétique sont proposées. En fonction des objectifs, des contraintes et des moyens d’action envisagés, différents outils ont été mis en œuvre. Dans le cas d’une stratégie visant plusieurs objectifs simultanément, la logique floue apparaît comme étant un outil bien adapté. De plus, étant basée sur des règles, cet outil permet de développer naturellement une stratégie de gestion énergétique intégrant plusieurs contraintes. Deux indicateurs pour évaluer les performances de ces stratégies de supervision ont été proposés (efficacité énergétique et variation de tension). Ces indicateurs permettent de choisir une stratégie de supervision, et donnent des critères pour le dimensionnement du système de stockage et de dissipation. Ces startégies de supervision ont été testées expérimentalement.La stabilité du réseau DC local a été analysée en petit signal. Il est montré que le système hybride avec la stratégie de gestion énergétique associée peut contribuer à augmenter la marge de stabilité de ce type de réseau.Les liaisons en continu mises actuellement en œuvre dans les systèmes embarqués en aéronautique ne sont pas réversibles en puissance. La volonté de les rendre réversibles nécessite donc de revoir complètement les protections de ce type de réseau. La problématique des protections de court-circuit et de défaut d’isolation a été investiguée. Une méthode pour sélectionner la branche en défaut d’isolation est proposée. Elle est testée au moyen de l’outil de simulation Saber qui prend en compte les caractéristiques des composants réels.Les travaux réalisés dans cette thèse peuvent être généralisés pour s’appliquer dans d’autres domaines d’application tels que les véhicules électriques ou hybrides, les systèmes ferroviaires, etc
The electrification trend is for all modes of transportation, particularly in the next generation of commercial aircrafts. This trend began with the Airbus A380 and Boeing 787 and it will continue. The replacement of mechanical, hydraulic and pneumatic power transfers by an electrical one is one of the most important innovations of the More Electric Aircraft in the aspect of ecologic and economic (weight reduction, energy efficiency increasing, maintenance costs reduction, etc..). The development of a local power exchange network, like a DC one, should facilitate this process. Some local electricity production, bi-directional loads and energy storage and dissipation system, are then interconnected by a DC bus, via some appropriate protections. Several power management strategies are proposed. Depending on the objectives, constraints and means of action envisaged, some tools have been implemented. In the case of a multiple objectives strategy, fuzzy logic appears to be a well suited tool . Moreover, being based on rules, this tool allows to develop naturally a power management strategy in considering several constraints. Two indicators to evaluate performance of these supervision strategies have been proposed (energy efficiency and voltage variation). These indicators help to choose a strategy of supervision, and provide criteria for sizing the storage and dissipation system. These supervision strategies were tested experimentally. The stability of the local DC network was analyzed in small signal. It is shown that the hybrid system with the associated energy management strategy can help to increase the stability margin of this type of network. The currently power connection being implemented in on-board systems is not reversible in power. To make it reversible necessitates a complete redesign of the protections. The problem of short-circuit protection and fault isolation has been investigated. A method to select the branch in insulation failure is proposed. It is tested using the Saber simulation tool that takes into account the characteristics of real components. The work in this thesis can be generalized and to be applied in other fields such as electric or hybrid vehicles, rail systems …etc
APA, Harvard, Vancouver, ISO, and other styles
11

Gilliard, Hervé. "La gestion de la qualité des hydrosystèmes : la concertation décentralisée." Limoges, 2001. http://www.theses.fr/2001LIMO0482.

Full text
Abstract:
L'objet général de la thèse est d'identifier les conditions dans lesquelles la concertation décentralisée peut constituer une modalité de gestion efficace d'un hydrosystème, respectant son caractère multi-usages, multi-fonctions et patrimoniale. Deux effets majeurs sont attentus de cette modalité de coordination spécifique : la définition par un ensemble d'acteurs aux intêrets divergents d'un accord mutuellement acceptable ; leur adhésion durable à des règles organisant les responsabilités de chacun. L'analyse d'une procédure particulière de concertation décentralisée -les contrats de rivière_ permet de dégager les éléments qui doivent être réunis pour que de tels effets soient réalisés. Cependant, afin d'orienter ce type de processus décisionnel vers un partage plus efficace entre les différentes fonctionnalités de l'hydrosystème, le recours aux méthodes économiques d'aide à a la décision s'avère approprié. Dans cette perspective, il convient alors de s'interroger sur la validité de la mise en forme de l'information en termes monétaires pour la gestion d'une ressource environnementale. Sur la base d'une mesure de la valeur de préservation suscitée par la réintroduction du saumon atlantique dans le bassin de la Dordogne, cette réflexion conduit à proposer d'utiliser de façon complémentaire approche délibérative et méthode d'évaluation contingente.
APA, Harvard, Vancouver, ISO, and other styles
12

Alsalloum, Hala. "Gestion décentralisée des interactions complexes entre producteurs et consommateurs d'énergie électrique." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0008.

Full text
Abstract:
Cette thèse porte sur la proposition d’une approche décentralisée pour la gestion de la demande d’énergie dans le cadre des smart grids. L'objectif principal est de promouvoir les économies d'énergie et l'utilisation des ressources énergétiques propres, tout en incitant les utilisateurs à participer activement à la gestion de la demande. A cet égard, la maîtrise de la consommation énergétique devient une priorité. Elle s’applique à plusieurs niveaux depuis le quartier jusqu’à la ville. Les travaux présentés dans cette thèse se situent dans ce cadre. Nous présentons en premier une modélisation des comportements divers des agents présents au sein du marché de l’énergie, basée sur la théorie des jeux tout en prenant en compte plusieurs contraintes comme l’hétérogénéité de producteurs et de consommateurs présents, et les contraintes spatiales et temporelles. Ensuite, nous essayons de répondre à leurs besoins en : (1) optimisant la demande de l’énergie (de la part des consommateurs qui deviennent eux-mêmes des producteurs d’énergie grâce à l’intégration des énergies renouvelables) et (2) son prix (de la part des producteurs). Enfin, nous proposons des algorithmes distribués partagés entre les joueurs pour atteindre un état stable du jeu. Des comparaisons avec des scénarios conventionnels connus dans ce domaine ont montré l’efficacité de nos contributions
This thesis focuses on the proposal of a decentralized approach for managing energy demand in the context of smart grids. The main objective is to promote energy savings and the use of clean energy resources, while encouraging users to actively participate in demand management. In this regard, controlling energy consumption becomes a priority. It applies at several levels from the neighborhood to the city. The work presented in this thesis falls within this framework. We first present a modeling of the various behaviors of the agents present within the energy market, based on game theory while taking into account several constraints such as the heterogeneity of producers and consumers present, and the spatial and temporal constraints. Then, we try to meet their needs by: (1) optimizing the demand for energy (from consumers’ side who themselves become energy producers through the integration of renewable energies) and (2) its price (from producers’ side). Finally, we propose distributed algorithms shared between players to achieve a stable state of the game. Comparisons with conventional scenarios known in this field have shown the effectiveness of our contributions
APA, Harvard, Vancouver, ISO, and other styles
13

Medina, Marquez Alejandro. "L'analyse des données évolutives." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Dan-Dah, Mahaman Laouali. "La gestion décentralisée des ressources naturelles au Niger : un concept juridique en question ?" Pau, 2004. http://www.theses.fr/2004PAUU2010.

Full text
Abstract:
Cette thèse analyse les diverses formes d’organisations des usagers des ressources naturelles et révèle qu’elles ne correspondent pas aux modes traditionnels d’accès aux dites ressources. En effet, traditionnellement les activités d’exploitation des ressources naturelles sont complémentaires, un même espace est soumis à l’exercice de plusieurs droits qui cohabitent et obligent leurs titulaires à s’entendre en vue de la gestion durable. Or, les organisations d’usagers sont le plus souvent spécialisées car chacune gère une ressource déterminée ; Celles qui ne sont pas spécialisées n’ont pas la personnalité juridique et ont une existence précaire. La gestion décentralisée est rendue ambiguë par le fait que les collectivités territoriales n’ont pas de patrimoine en ressources naturelles, en outre leurs attributions sont soit concurrencées par les chefs traditionnels, soit rendues incertaines par la disparité du cadre juridique et institutionnel, soit contournées par l’institution de nombreuses instances de coordination et une réglementation régionale qui ne reconnaît que la compétence des Etats en matière de gestion des ressources naturelles. Enfin, la privatisation de l’eau et de la faune sauvage a contribué à l’instauration d’un système d’exclusivité des droits incompatible avec la gestion décentralisée. L’exclusivité des droits résulte aussi de la mise en œuvre de régimes antagonistes pour régir des ressources naturelles dont les modes d’exploitation sont complémentaires. Ainsi, l’instauration de la propriété privée des terres agricoles et la reconnaissance d’un simple droit d’usage des espaces pastoraux ont engendré la marginalisation des pasteurs
This thesis specifies the form and the legal contents of the local management of natural resources in Niger through: At first, the analysis of the different forms of users organisations. It figure out that these organisation are different of the traditional modes of access to natural resources in which case, the different activities of natural resources management are complementary. In the same space many prerogatives cohabit and force the different groups of natural resources users to hear each other for a durable exploitation. Now, mostly of users organisations are specialised, each organisation is in charge of the management of one natural resource. Some of these organisations who are not specialised don’t have legal reference, so they are not durable. The influence of land tenure issues, the concurrence of traditional authorities and the high dependence towards development project restrict the competence and the autonomy of user’s organisations. The movement in favour of local management of natural resources is ambiguous. The local administrations have some competencies in natural resources management, but the state is the owner of all these resources. Besides, their competencies are either vindicates by traditional authorities, or uncertainty because of the disparity of the legal and institutional frame. The rule uncertainty promotes the state’s intervention. It is also promoted by many co-ordination institutions and regional conventions which gave to the state many opportunities of going round the local administrations competencies. At last, the privatisation of water and wild fauna sets up a system of exclusive rights which is incompatible with a local management
APA, Harvard, Vancouver, ISO, and other styles
15

Dong, Alyssia. "Algorithmes asynchrones pour la gestion décentralisée des réseaux électriques soumis aux aléas de communication." Thesis, Rennes, École normale supérieure, 2022. http://www.theses.fr/2022ENSR0035.

Full text
Abstract:
La thématique des smart grids est fondée sur l'interaction d’un réseau électrique et d’un réseau de communication reliant des agents distribués, « intelligents » et communicants. Dans le cas d’un réseau électrique classique, les événements imprévus (perte d'un équipement, ligne saturée, etc) sont principalement amortis et compensés par l'inertie du réseau et ses centrales de réserves. Un smart grid se propose de réduire cette dépendance à l'aide de stratégies de gestion distribuées intelligentes faisant appel à des échanges d'information et donc à un réseau de communication. La question de l'impact de la fiabilité du réseau de communication est donc ici cruciale. Le présent projet se propose donc d'analyser finement l'impact des aléas de communication sur la résilience d'un smart grid et de développer des stratégies de gestion prenant en compte ces aléas pour garantir l'opérabilité et l'efficience du smart grid.On se penche en particulier sur trois types d'algorithmes : un algorithme de marché pair à pair, un algorithme d'Optimal Power Flow qui prend en compte les contraintes physiques du réseau électrique, et enfin un algorithme de marché pair à pair endogène. Nous avons étudié de manière approfondie le principe d'algorithme asynchrone, qui permet de limiter les délais d’attente à chaque itération, ainsi que les effets des aléas du réseau de communication sur la résolution des versions asynchrones de ces algorithmes
Smart grids are based on the interaction of an electrical network and a communication network between distributed, "intelligent" and communicating agents. In the case of a traditional electrical network, unforeseen events (loss of an equipment, line congestion, etc.) are mainly absorbed and compensated by the inertia of the network and its operating reserve. Smart grids aim to reduce this dependency by using intelligent distributed management strategies using information exchange and therefore based on a communication network. The impact of the communication network's reliability is a critical issue that we must address. This project aims at analyzing the impact of communication hazards on the resilience of a smart grid and at developing strategies that take these hazards into account in order to guarantee the operability and efficiency of the smart grid. In particular, we investigate three types of algorithms: a peer-to-peer market algorithm, an Optimal Power Flow algorithm that takes into account the physical constraints of the power grid, and finally an endogenous peer-to-peer market algorithm. We have studied in depth the principles of asynchronous algorithms, which help to minimize the waiting time at each iteration, as well as the effects of communication network hazards on the asynchronous resolution of these algorithms
APA, Harvard, Vancouver, ISO, and other styles
16

André, Cyrille. "Approche crédibiliste pour la fusion multi capteurs décentralisée." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00976761.

Full text
Abstract:
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants.
APA, Harvard, Vancouver, ISO, and other styles
17

Le, Béchec Antony. "Gestion, analyse et intégration des données transcriptomiques." Rennes 1, 2007. http://www.theses.fr/2007REN1S051.

Full text
Abstract:
Dans le cadre de l'étude des mécanismes moléculaires impliqués dans les processus biologiques liés aux pathologies, la transcriptomique permet d’étudier l’expression de plusieurs milliers de gènes en une seule expérience. Les standards internationaux permettent actuellement de gérer la grande quantité de données générées par cette technologie et de nombreux algorithmes permettent le traitement et l’analyse des données d’expression. Le grand défi d’aujourd’hui réside dans l’interprétation des données, notamment par l’intégration de connaissances biologiques supplémentaires permettant la création d’un contexte d’étude aidant à la compréhension des mécanismes biologiques. Afin de répondre aux besoins liés à l’exploitation de ces données transcriptomiques, un environnement complet et évolutif a été développé, M@IA (Micro@rray Integrated Application), permettant de gérer les expériences de puces à ADN mais également traiter et analyser les données d’expression. Une méthode de biologie intégrative combinant de multiples sources de données a été conçue pour exploiter des listes de gènes différentiellement exprimés par l’interprétation de réseaux de gènes représentés sous forme de graphes d’interaction. Egalement, une méthode de méta-analyse de données d’expression de gènes issues de la bibliographie a permis de sélectionner et combiner des études similaires associées à la progression tumorale du foie. En conclusion, ces travaux s’intègrent totalement à l’actuel développement de la biologie intégrative, indispensable à la résolution des mécanismes physiopathologiques
Aiming at a better understanding of diseases, transcriptomic approaches allow the analysis of several thousands of genes in a single experiment. To date, international standard initiatives have allowed the utilization of large quantity of data generated using transcriptomic approaches by the whole scientific community, and a large number of algorithms are available to process and analyze the data sets. However, the major challenge remaining to tackle is now to provide biological interpretations to these large sets of data. In particular, their integration with additional biological knowledge would certainly lead to an improved understanding of complex biological mechanisms. In my thesis work, I have developed a novel and evolutive environment for the management and analysis of transcriptomic data. Micro@rray Integrated Application (M@IA) allows for management, processing and analysis of large scale expression data sets. In addition, I elaborated a computational method to combine multiple data sources and represent differentially expressed gene networks as interaction graphs. Finally, I used a meta-analysis of gene expression data extracted from the literature to select and combine similar studies associated with the progression of liver cancer. In conclusion, this work provides a novel tool and original analytical methodologies thus contributing to the emerging field of integrative biology and indispensable for a better understanding of complex pathophysiological processes
APA, Harvard, Vancouver, ISO, and other styles
18

Maniu, Silviu. "Gestion des données dans les réseaux sociaux." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0053/document.

Full text
Abstract:
Nous abordons dans cette thèse quelques-unes des questions soulevées par I'émergence d'applications sociales sur le Web, en se concentrant sur deux axes importants: l'efficacité de recherche sociale dans les applications Web et l'inférence de liens sociaux signés à partir des interactions entre les utilisateurs dans les applications Web collaboratives. Nous commençons par examiner la recherche sociale dans les applications de "tag- ging". Ce problème nécessite une adaptation importante des techniques existantes, qui n'utilisent pas des informations sociaux. Dans un contexte ou le réseau est importante, on peut (et on devrait) d'exploiter les liens sociaux, ce qui peut indiquer la façon dont les utilisateurs se rapportent au demandeur et combien de poids leurs actions de "tagging" devrait avoir dans le résultat. Nous proposons un algorithme qui a le potentiel d'évoluer avec la taille des applications actuelles, et on le valide par des expériences approfondies. Comme les applications de recherche sociale peut être considérée comme faisant partie d'une catégorie plus large des applications sensibles au contexte, nous étudions le problème de répondre aux requêtes à partir des vues, en se concentrant sur deux sous-problèmes importants. En premier, la manipulation des éventuelles différences de contexte entre les différents points de vue et une requête d'entrée conduit à des résultats avec des score incertains, valables pour le nouveau contexte. En conséquence, les algorithmes top-k actuels ne sont plus directement applicables et doivent être adaptés aux telle incertitudes dans les scores des objets. Deuxièmement, les techniques adaptées de sélection de vue sont nécessaires, qui peuvent s’appuyer sur les descriptions des requêtes et des statistiques sur leurs résultats. Enfin, nous présentons une approche pour déduire un réseau signé (un "réseau de confiance") à partir de contenu généré dans Wikipedia. Nous étudions les mécanismes pour deduire des relations entre les contributeurs Wikipédia - sous forme de liens dirigés signés - en fonction de leurs interactions. Notre étude met en lumière un réseau qui est capturée par l’interaction sociale. Nous examinons si ce réseau entre contributeurs Wikipedia représente en effet une configuration plausible des liens signes, par l’étude de ses propriétés globaux et locaux du reseau, et en évaluant son impact sur le classement des articles de Wikipedia
We address in this thesis some of the issues raised by the emergence of social applications on the Web, focusing on two important directions: efficient social search inonline applications and the inference of signed social links from interactions between users in collaborative Web applications. We start by considering social search in tagging (or bookmarking) applications. This problem requires a significant departure from existing, socially agnostic techniques. In a network-aware context, one can (and should) exploit the social links, which can indicate how users relate to the seeker and how much weight their tagging actions should have in the result build-up. We propose an algorithm that has the potential to scale to current applications, and validate it via extensive experiments. As social search applications can be thought of as part of a wider class of context-aware applications, we consider context-aware query optimization based on views, focusing on two important sub-problems. First, handling the possible differences in context between the various views and an input query leads to view results having uncertain scores, i.e., score ranges valid for the new context. As a consequence, current top-k algorithms are no longer directly applicable and need to be adapted to handle such uncertainty in object scores. Second, adapted view selection techniques are needed, which can leverage both the descriptions of queries and statistics over their results. Finally, we present an approach for inferring a signed network (a "web of trust")from user-generated content in Wikipedia. We investigate mechanisms by which relationships between Wikipedia contributors - in the form of signed directed links - can be inferred based their interactions. Our study sheds light into principles underlying a signed network that is captured by social interaction. We investigate whether this network over Wikipedia contributors represents indeed a plausible configuration of link signs, by studying its global and local network properties, and at an application level, by assessing its impact in the classification of Wikipedia articles.javascript:nouvelleZone('abstract');_ajtAbstract('abstract')
APA, Harvard, Vancouver, ISO, and other styles
19

Maniu, Silviu. "Gestion des données dans les réseaux sociaux." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0053.

Full text
Abstract:
Nous abordons dans cette thèse quelques-unes des questions soulevées par I'émergence d'applications sociales sur le Web, en se concentrant sur deux axes importants: l'efficacité de recherche sociale dans les applications Web et l'inférence de liens sociaux signés à partir des interactions entre les utilisateurs dans les applications Web collaboratives. Nous commençons par examiner la recherche sociale dans les applications de "tag- ging". Ce problème nécessite une adaptation importante des techniques existantes, qui n'utilisent pas des informations sociaux. Dans un contexte ou le réseau est importante, on peut (et on devrait) d'exploiter les liens sociaux, ce qui peut indiquer la façon dont les utilisateurs se rapportent au demandeur et combien de poids leurs actions de "tagging" devrait avoir dans le résultat. Nous proposons un algorithme qui a le potentiel d'évoluer avec la taille des applications actuelles, et on le valide par des expériences approfondies. Comme les applications de recherche sociale peut être considérée comme faisant partie d'une catégorie plus large des applications sensibles au contexte, nous étudions le problème de répondre aux requêtes à partir des vues, en se concentrant sur deux sous-problèmes importants. En premier, la manipulation des éventuelles différences de contexte entre les différents points de vue et une requête d'entrée conduit à des résultats avec des score incertains, valables pour le nouveau contexte. En conséquence, les algorithmes top-k actuels ne sont plus directement applicables et doivent être adaptés aux telle incertitudes dans les scores des objets. Deuxièmement, les techniques adaptées de sélection de vue sont nécessaires, qui peuvent s’appuyer sur les descriptions des requêtes et des statistiques sur leurs résultats. Enfin, nous présentons une approche pour déduire un réseau signé (un "réseau de confiance") à partir de contenu généré dans Wikipedia. Nous étudions les mécanismes pour deduire des relations entre les contributeurs Wikipédia - sous forme de liens dirigés signés - en fonction de leurs interactions. Notre étude met en lumière un réseau qui est capturée par l’interaction sociale. Nous examinons si ce réseau entre contributeurs Wikipedia représente en effet une configuration plausible des liens signes, par l’étude de ses propriétés globaux et locaux du reseau, et en évaluant son impact sur le classement des articles de Wikipedia
We address in this thesis some of the issues raised by the emergence of social applications on the Web, focusing on two important directions: efficient social search inonline applications and the inference of signed social links from interactions between users in collaborative Web applications. We start by considering social search in tagging (or bookmarking) applications. This problem requires a significant departure from existing, socially agnostic techniques. In a network-aware context, one can (and should) exploit the social links, which can indicate how users relate to the seeker and how much weight their tagging actions should have in the result build-up. We propose an algorithm that has the potential to scale to current applications, and validate it via extensive experiments. As social search applications can be thought of as part of a wider class of context-aware applications, we consider context-aware query optimization based on views, focusing on two important sub-problems. First, handling the possible differences in context between the various views and an input query leads to view results having uncertain scores, i.e., score ranges valid for the new context. As a consequence, current top-k algorithms are no longer directly applicable and need to be adapted to handle such uncertainty in object scores. Second, adapted view selection techniques are needed, which can leverage both the descriptions of queries and statistics over their results. Finally, we present an approach for inferring a signed network (a "web of trust")from user-generated content in Wikipedia. We investigate mechanisms by which relationships between Wikipedia contributors - in the form of signed directed links - can be inferred based their interactions. Our study sheds light into principles underlying a signed network that is captured by social interaction. We investigate whether this network over Wikipedia contributors represents indeed a plausible configuration of link signs, by studying its global and local network properties, and at an application level, by assessing its impact in the classification of Wikipedia articles.javascript:nouvelleZone('abstract');_ajtAbstract('abstract')
APA, Harvard, Vancouver, ISO, and other styles
20

Benchkron, Said Soumia. "Bases de données et logiciels intégrés." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Full text
Abstract:
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
APA, Harvard, Vancouver, ISO, and other styles
22

Pham, Thi Thu Hà. "Influences de la production décentralisée sur la gestion des infrastructures critiques des réseaux de puissance." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0123.

Full text
Abstract:
L’objectif de ce travail est, partant des analyses des impacts des Générations d'Energie Dispersée (GED) dans les réseaux électriques, de proposer une nouvelle méthodologie de gestion des situations critiques du système à fort taux de pénétration de production décentralisée. Cette nouvelle méthodologie s’appuie sur le concept d’îlotage intentionnel à multiples niveaux de tension à l’aide des GED. L'idée développée a été d'intégrer de nouveaux modes d'exploitation des GED aux plans d'actions du système électrique, ceci en cas de grande perturbation et même de panne d'électricité à grande échelle, en utilisant différentes techniques d'optimisation multi-objectifs sous contraintes à multi-niveaux de tension. Cette méthode a été appelé Deep Build Together pour considérer une reconstruction simultanée du système dans les deux sens descendent et ascendant : du transport vers la distribution et de la distribution vers le transport. Grâce à cela, lors d'un incident généralisé, beaucoup de clients pourront être réalimentés plus tôt (notamment les clients prioritaires) et la durée de la reconstitution du système sera réduite. Plusieurs aspects techniques ont été analysés pour justifier la faisabilité de cette méthodologie. Une comparaison paramétrique, en fonction du taux de pénétration de GED, entre la nouvelle stratégie Deep Build Together et celle qui est actuellement utilisée, a permis une première validation de cette nouvelle stratégie de gestion des situations critiques
The objective of this thesis is, based on the analyses of the dispersed generation (DG) impacts in the electrical networks (transmission and distribution), to propose a new methodology of management of the critical situations in the power system with large scale of decentralized production penetration. This new methodology based on the intentional islanding concept at multiple levels of voltage using the DG. The developed idea was to integrate the new DG's exploitation modes in the action plans of electrical power system in the great disturbance case or total black-out by using different multi-level and multi-objective optimization techniques with constraints. This method is named Deep Build Together for considering the rebuilding simultaneous in upstream and downstream processes by transmission and distribution networks. Thereby, in case of major failure, many customers (in particular the priority customers) would be restored earlier and the system restoration duration would be reduced. Numerous technical aspects had been analyzed to justify the feasibility of this methodology. A parametrical comparison, in function of DG penetration rate, between the proposed strategy Deep Build Together and the one which is actually used, allowed the first validation of this new strategy of management of the critical situations
APA, Harvard, Vancouver, ISO, and other styles
23

Kermarrec, Anne-Marie. "Réseaux logiques collaboratifs pour la recherche décentralisée dans les systèmes à large échelle." Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/riviere.pdf.

Full text
Abstract:
Il est nécessaire de proposer des mécanismes système facilitant la mise en œuvre d'applications réparties, adaptés au dynamisme et à la large échelle. Cette thèse propose un ensemble de systèmes pour fournir le service de recherche de données dans ces réseaux. Ceux-ci sont fondés sur le principe de réseau logique collaboratif, où les éléments de données sont liés dans un réseau virtuel dont la structure permet le support efficace de la recherche. Cette thèse propose VoroNet et Raynet, deux systèmes pour le support de recherches instantanées, qui fournissent nativement le support de la recherche avec forte expressivité et exhaustivité complète. Ensuite, deux réseaux pour le support des recherches persistantes sont proposés : Rappel, pour le support efficace de la diffusion de flux RSS/Atom avec prise en compte des proximités réseau et sémantiques, et Sub-2-Sub, pour les recherches persistantes fondées sur le contenu
It is necessary to propose system-level mechanisms to help the deployment of large-scale distributed applications, adapted to dynamism and scale shifts. More specifically, one such service of primordial importance is the search mechanism. These systems are based upon overlay structures, linking application data elements in a logical network whose structure provides a support for decentralized search. This thesis investigates first the support of instant query mechanisms, and presents VoroNet and RayNet, two systems that natively support search with high expressivity and full exhaustiveness. Then, the support of the publish/subscribe communication paradigm in a fully decentralized way is investigated. Two self-organizing overlays are presented. Rappel supports efficiently RSS/Atom feeds dissemination by leveraging both network and semantic proximities. Sub-2-Sub is a fully distributed system supporting content-based publish and subscribe
APA, Harvard, Vancouver, ISO, and other styles
24

Chardonnens, Anne. "La gestion des données d'autorité archivistiques dans le cadre du Web de données." Doctoral thesis, Universite Libre de Bruxelles, 2020. https://dipot.ulb.ac.be/dspace/bitstream/2013/315804/5/Contrat.pdf.

Full text
Abstract:
Dans un contexte archivistique en transition, marqué par l'évolution des normes internationales de description archivistique et le passage vers une logique de graphes d'entités, cette thèse se concentre plus spécifiquement sur la gestion des données d'autorité relatives à des personnes physiques. Elle vise à explorer comment le secteur des archives peut bénéficier du développement du Web de données pour favoriser une gestion soutenable de ses données d'autorité :de leur création à leur mise à disposition, en passant par leur maintenance et leur interconnexion avec d'autres ressources.La première partie de la thèse est dédiée à un état de l'art englobant tant les récentes évolutions des normes internationales de description archivistique que le développement de l'écosystème Wikibase. La seconde partie vise à analyser les possibilités et les limites d'une approche faisant appel au logiciel libre Wikibase. Cette seconde partie s'appuie sur une étude empirique menée dans le contexte du Centre d'Études et de Documentation Guerre et Sociétés Contemporaines (CegeSoma). Elle permet de tester les perspectives dont disposent des institutions possédant des ressources limitées et n'ayant pas encore adopté la logique du Web de données. Par le biais de jeux de données relatifs à des personnes liées à la Seconde Guerre mondiale, elle dissèque les différentes étapes conduisant à leur publication sous forme de données ouvertes et liées. L'expérience menée en seconde partie de thèse montre comment une base de connaissance mue par un logiciel tel que Wikibase rationalise la création de données d'autorité structurées multilingues. Des exemples illustrent la façon dont ces entités peuvent ensuite être réutilisées et enrichies à l'aide de données externes dans le cadre d'interfaces destinées au grand public. Tout en soulignant les limites propres à l'utilisation de Wikibase, cette thèse met en lumière ses possibilités, en particulier dans le cadre de la maintenance des données. Grâce à son caractère empirique et aux recommandations qu'elle formule, cette recherche contribue ainsi aux efforts et réflexions menés dans le cadre de la transition des métadonnées archivistiques.
The subject of this thesis is the management of authority records for persons. The research was conducted in an archival context in transition, which was marked by the evolution of international standards of archival description and a shift towards the application of knowledge graphs. The aim of this thesis is to explore how the archival sector can benefit from the developments concerning Linked Data in order to ensure the sustainable management of authority records. Attention is not only devoted to the creation of the records and how they are made available but also to their maintenance and their interlinking with other resources.The first part of this thesis addresses the state of the art of the developments concerning the international standards of archival description as well as those regarding the Wikibase ecosystem. The second part presents an analysis of the possibilities and limits associated with an approach in which the free software Wikibase is used. The analysis is based on an empirical study carried out with data of the Study and Documentation Centre War and Contemporary Society (CegeSoma). It explores the options that are available to institutions that have limited resources and that have not yet implemented Linked Data. Datasets that contain information of people linked to the Second World War were used to examine the different stages involved in the publication of data as Linked Open Data.The experiment carried out in the second part of the thesis shows how a knowledge base driven by software such as Wikibase streamlines the creation of multilingual structured authority data. Examples illustrate how these entities can then be reused and enriched by using external data in interfaces aimed at the general public. This thesis highlights the possibilities of Wikibase, particularly in the context of data maintenance, without ignoring the limitations associated with its use. Due to its empirical nature and the formulated recommendations, this thesis contributes to the efforts and reflections carried out within the framework of the transition of archival metadata.
Doctorat en Information et communication
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
25

Tos, Uras. "Réplication de données dans les systèmes de gestion de données à grande échelle." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30066/document.

Full text
Abstract:
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur
In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider
APA, Harvard, Vancouver, ISO, and other styles
26

Duquet, Mario. "Gestion des données agrométéorologiques pour l'autoroute de l'information." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ61339.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Rhin, Christophe. "Modélisation et gestion de données géographiques multi-sources." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0010.

Full text
Abstract:
Le nombre de données géographiques disponibles augmente très rapidement à cause de la multiplication des sources de production et de distribution. Les logiciels dédiés à la gestion des données géographiques doivent donc manipuler de gros volumes de données, dont les structures et les représentations sont différentes. Ces logiciels doivent aussi garantir les mêmes fonctionnalités que les systèmes de gestion de bases de données : sûreté de fonctionnement et accès concurrents. Après avoir montré pourquoi les solutions existantes ne peuvent assurer l'ensemble de ces fonctionnalités, nous proposons d'abord un modèle conceptuel de données adapté aux données géographiques multi-sources. Ensuite nous proposons une architecture logicielle qui s'appuie sur un système de gestion de base de données orienté objet et qui conserve l'évolutivité et l'adaptabilité du modèle conceptuel. Cette architecture permet à la fois de garantir les fonctionnalités de base de données et de fournir des méthodes d'accès performantes. L'efficacité de cette architecture est obtenue grâce à l'intégration d'un index spatial au cœur du sgbdoo, au même niveau que les index standards. Nous étudions en détail le comportement d'un index spatial intègré, pour des requêtes de pointe et pour des requêtes de fenêtrage avec des fenêtres de taille variable. De plus, à travers la comparaison avec les comportements du même index spatial non intègré et d'un index standard du sgbdoo, nous mesurons précisément les gains de performance. Enfin nous décrivons les différentes stratégies possibles pour un interpréteur de requêtes comportant des critères thématiques et des critères spatiaux, afin d'utiliser au mieux les index spatiaux
APA, Harvard, Vancouver, ISO, and other styles
28

Ayari, Mouna. "Architecture de gestion décentralisée de la qualité de service par politiques dans les réseaux Ad Hoc." Paris 6, 2008. http://www.theses.fr/2009PA066006.

Full text
Abstract:
Dans cette thèse, nous proposons une architecture de gestion autonomique de la qualité de service par politiques dans les réseaux ad hoc : ADMA (Autonomous Decentralized Management Architecture). L'objectif de notre approche est de mettre en place, un système auto-géré, dynamique et adaptatif. Nous avons associé à cet effet les caractéristiques du système de gestion par politiques avec la propriété d'auto-configuration des réseaux autonomiques. Aucun noeud ad hoc ne possède une vision complète ou globale du réseau et les décisions seront prises d'une manière totalement décentralisée. Ces décisions respectent des politiques prédéfinies par l'administrateur du réseau. Ces politiques sont répliquées dans tous les nœuds du réseau ad hoc. Nous en avons distinguées quatre classes : politiques de configuration, de reconfiguration, de surveillance et méta-politiques. Nous proposons également un nouveau protocole de gestion par politiques fonctionnant en mode pair-à-pair décentralisé: DPMP (Distributed Policy Management Protocol). Notre protocole permet d'assurer deux services : la distribution des politiques dans le réseau ad hoc et la collecte d'information d'état du nœud et son environnement. Il permet également l'interaction entre les différents composants de notre architecture ADMA. L'évaluation de notre proposition porte sur deux volets : la vérification formelle et les simulations. La modélisation et vérification formelles nous ont permis de valider la conception du protocole DPMP par rapport à sa spécification. Les résultats de simulations ont montré que notre solution passe à l'échelle et qu'elle n'est pas sensible à la mobilité et aux changements topologiques.
APA, Harvard, Vancouver, ISO, and other styles
29

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Full text
Abstract:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
APA, Harvard, Vancouver, ISO, and other styles
30

Sandoval, Gomez Maria Del Rosario. "Conception et réalisation du système de gestion de multibases de données MUSE : architecture de schéma multibase et gestion du catalogue des données." Paris 6, 1989. http://www.theses.fr/1989PA066657.

Full text
Abstract:
Durant ces dernieres annees, une nouvelle demarche a ete proposee pour faire face aux problemes poses par l'integration de bases de donnees existantes. C'est la demarche consistant a faire cooperer plusieurs bases sans obligation d'avoir un schema conceptuel global. Elle est connue sous le nom de multibases de donnees. Le systeme que nous presentons, muse, est base sur cette nouvelle demarche. Des questions relatives a l'autonomie des sites et a l'architecture du systeme sont discutees. Dans muse, une multibase se presente comme une collection de base de donnees autonomes et des schemas exportes/importes. Ces schemas sont stockes dans des catalogues d'exportation/importation. Les utilisateurs manipulent les donnees et adressent leurs requetes par moyen du langage d-sql
APA, Harvard, Vancouver, ISO, and other styles
31

Liroz, Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01023039.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
APA, Harvard, Vancouver, ISO, and other styles
32

Petit, Loïc. "Gestion de flux de données pour l'observation de systèmes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849106.

Full text
Abstract:
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k.
APA, Harvard, Vancouver, ISO, and other styles
33

Liroz-Gistau, Miguel. "Partitionnement dans les Systèmes de Gestion de Données Parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00920615.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.
APA, Harvard, Vancouver, ISO, and other styles
34

Gürgen, Levent. "Gestion à grande échelle de données de capteurs hétérogènes." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0093.

Full text
Abstract:
Cette thèse traite les aspects liés à la gestion à grande échelle de données issues de capteurs hétérogènes. En effet, les capteurs sont de moins en moins chers, de plus en plus nombreux et hétérogènes dans les applications. Ceci implique naturellement le problème de passage à l'échelle et la nécessité de pouvoir exploiter les données provenant de différents types de capteurs. Nous proposons une architecture distribuée et orientée services dans laquelle les tâches de traitement de données sont réparties sur plusieurs niveaux. Les fonctionnalités de gestion de données sont fournies en termes de < > afin de cacher l'hétérogénéité des capteurs sous des services génériques. Nous traitons également les aspects liés à l'administration de parc de capteurs, un sujet non abordé dans ce contexte
This dissertation deals with the issues related to scalable management of heterogeneous sensor data. Ln fact, sensors are becoming less and less expensive, more and more numerous and heterogeneous. This naturally raises the scalability problem and the need for integrating data gathered from heterogeneous sensors. We propose a distributed and service-oriented architecture in which data processing tasks are distributed at severallevels in the architecture. Data management functionalities are provided in terms of "services", in order to hide sensor heterogeneity behind generic services. We equally deal with system management issues in sensor farms, a subject not yet explored in this context
APA, Harvard, Vancouver, ISO, and other styles
35

Liroz, Gistau Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20117/document.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
During the last years, the volume of data that is captured and generated has exploded. Advances in computer technologies, which provide cheap storage and increased computing capabilities, have allowed organizations to perform complex analysis on this data and to extract valuable knowledge from it. This trend has been very important not only for industry, but has also had a significant impact on science, where enhanced instruments and more complex simulations call for an efficient management of huge quantities of data.Parallel computing is a fundamental technique in the management of large quantities of data as it leverages on the concurrent utilization of multiple computing resources. To take advantage of parallel computing, we need efficient data partitioning techniques which are in charge of dividing the whole data and assigning the partitions to the processing nodes. Data partitioning is a complex problem, as it has to consider different and often contradicting issues, such as data locality, load balancing and maximizing parallelism.In this thesis, we study the problem of data partitioning, particularly in scientific parallel databases that are continuously growing and in the MapReduce framework.In the case of scientific databases, we consider data partitioning in very large databases in which new data is appended continuously to the database, e.g. astronomical applications. Existing approaches are limited since the complexity of the workload and continuous appends restrict the applicability of traditional approaches. We propose two partitioning algorithms that dynamically partition new data elements by a technique based on data affinity. Our algorithms enable us to obtain very good data partitions in a low execution time compared to traditional approaches.We also study how to improve the performance of MapReduce framework using data partitioning techniques. In particular, we are interested in efficient data partitioning of the input datasets to reduce the amount of data that has to be transferred in the shuffle phase. We design and implement a strategy which, by capturing the relationships between input tuples and intermediate keys, obtains an efficient partitioning that can be used to reduce significantly the MapReduce's communication overhead
APA, Harvard, Vancouver, ISO, and other styles
36

Etien-Gnoan, N'Da Brigitte. "L'encadrement juridique de la gestion électronique des données médicales." Thesis, Lille 2, 2014. http://www.theses.fr/2014LIL20022/document.

Full text
Abstract:
La gestion électronique des données médicales consiste autant dans le simple traitement automatisé des données personnelles que dans le partage et l'échange de données relatives à la santé. Son encadrement juridique est assuré, à la fois, par les règles communes au traitement automatisé de toutes les données personnelles et par celles spécifiques au traitement des données médicales. Cette gestion, même si elle constitue une source d'économie, engendre des problèmes de protection de la vie privée auxquels le gouvernement français tente de faire face en créant l'un des meilleurs cadres juridiques au monde, en la matière. Mais, de grands chantiers comme celui du dossier médical personnel attendent toujours d'être réalisés et le droit de la santé se voit devancer et entraîner par les progrès technologiques. Le développement de la télésanté bouleverse les relations au sein du colloque singulier entre le soignant et le soigné. L'extension des droits des patients, le partage de responsabilité, l'augmentation du nombre d'intervenants, le secret médical partagé constituent de nouveaux enjeux avec lesquels il faut, désormais compter. Une autre question cruciale est celle posée par le manque d'harmonisation des législations augmentant les risques en cas de partage transfrontalier de données médicales
The electronic management of medical data is as much in the simple automated processing of personal data in the sharing and exchange of health data . Its legal framework is provided both by the common rules to the automated processing of all personal data and those specific to the processing of medical data . This management , even if it is a source of economy, creates protection issues of privacy which the French government tries to cope by creating one of the best legal framework in the world in this field. However , major projects such as the personal health record still waiting to be made and the right to health is seen ahead and lead by technological advances . The development of e-health disrupts relationships within one dialogue between the caregiver and the patient . The extension of the rights of patients , sharing responsibility , increasing the number of players , the shared medical confidentiality pose new challenges with which we must now count. Another crucial question is posed by the lack of harmonization of legislation increasing the risks in cross-border sharing of medical
APA, Harvard, Vancouver, ISO, and other styles
37

Gueye, Modou. "Gestion de données de recommandation à très large échelle." Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0083.

Full text
Abstract:
Cette thèse s'intéresse à la problématique de passage à l'échelle des systèmes de recommandations. Dans ce cadre, nous proposons deux algorithmes de recommandation passant à l'échelle tout en délivrant une bonne qualité de recommandation. Dans nos premiers travaux, nous considérons l'utilisation de la factorisation de matrice pour prédire les avis des utilisateurs dans des contextes dynamiques où les utilisateurs soumettent sans cesse de nouveaux avis sur des objets. Il est difficile d'y tenir un modèle de prédiction à jour. Nous proposons un modèle de factorisation utilisant plusieurs biais locaux décrivant de façon plus élaborée les comportements des utilisateurs. Leur coût de calcul faible permet de les ajuster à la volée, lorsque de nouvelles notes arrivent. Ils assurent ainsi la robustesse du modèle dans un contexte dynamique, tout en garantissant une meilleure qualité au cours le temps. Nous nous sommes aussi intéressés à la recommandation de tags dans les réseaux sociaux. Notre proposition s'appuie sur l'algorithme des plus proches voisins. Cependant, nous déterminons dynamiquement le nombre optimal de voisins à utiliser. Notre approche prend en compte les avis des voisins indirects en étendant la relation de proximité entre les utilisateurs. Nos expérimentations ont démontré l'efficacité de cette approche qui peut être adaptée à bien d'autres types de recommandation. Enfin, nous proposons une technique d'optimisation du nombre d'objets à recommander en fonction du contexte. L'idée étant ici de chercher le nombre optimal d'objets à proposer à l'utilisateur, de telle sorte que la probabilité qu'il les choisisse tous soit la plus élevée
In this thesis, we address the scalability problem of recommender systems. We propose accu rate and scalable algorithms. We first consider the case of matrix factorization techniques in a dynamic context, where new ratings..are continuously produced. ln such case, it is not possible to have an up to date model, due to the incompressible time needed to compute it. This happens even if a distributed technique is used for matrix factorization. At least, the ratings produced during the model computation will be missing. Our solution reduces the loss of the quality of the recommendations over time, by introducing some stable biases which track users' behavior deviation. These biases are continuously updated with the new ratings, in order to maintain the quality of recommendations at a high leve for a longer time. We also consider the context of online social networks and tag recommendation. We propose an algorithm that takes account of the popularity of the tags and the opinions of the users' neighborhood. But, unlike common nearest neighbors' approaches, our algorithm doe not rely on a fixed number of neighbors when computing a recommendation. We use a heuristic that bounds the network traversai in a way that allows to faster compute the recommendations while preserving the quality of the recommendations. Finally, we propose a novel approach that improves the accuracy of the recommendations for top-k algorithms. Instead of a fixed list size, we adjust the number of items to recommend in a way that optimizes the likelihood that ail the recommended items will be chosen by the user, and find the best candidate sub-list to recommend to the user
APA, Harvard, Vancouver, ISO, and other styles
38

Djellalil, Jilani. "Conception et réalisation de multibases de données." Lyon 3, 1989. http://www.theses.fr/1989LYO3A003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Faye, David Célestin. "Médiation de données sémantique dans SenPeer, un système pair-à-pair de gestion de données." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481311.

Full text
Abstract:
La société de l'information demande un accès efficace à un ensemble d'informations qui sont souvent hétérogènes et distribuées. Dans le but d'un partage efficace de cette information, plusieurs solutions techniques ont été proposées. L'infrastructure Pair-à-Pair (P2P) est un paradigme émergent et offrant de nouvelles opportunités pour la mise en place de systèmes distribués à grande échelle. D'autre part, le concept de base de données distribuée a été introduit dans le but d'organiser une collection multiple de bases de données logiquement liées et distribuées sur un réseau d'ordinateurs. Récemment, les systèmes P2P de gestion de données communément appelés PDMS (Peer Data Management System) ont vu le jour. Ils combinent les avantages des systèmes P2P avec ceux des bases de données distribuées. Dans le but de contribuer à la recherche sur la gestion de données dans un contexte P2P, nous proposons le PDMS SenPeer. SenPeer suit une topologie super-pair basée sur l'organisation des pairs en communautés sémantiques en fonction de leur thème d'intérêt. Pour faciliter l'échange de données entre pairs nous établissons des processus de découverte de correspondances sémantiques et de reformulation de requêtes en présence de plusieurs modèles de données. Ces correspondances sémantiques, en combinaison avec les schémas des pairs sont à la base d'une topologie sémantique au dessus du réseau physique et utilisée pour un routage efficace des requêtes. Les requêtes sont échangées à travers un format commun d'échange de requête et un processus d'optimisation distribué permet de choisir le meilleur plan d'exécution de la requête en fonction des caractéristiques du PDMS. Une validation expérimentale par la mise en place d'un simulateur permet d'affirmer l'utilité et la performance des techniques proposées.
APA, Harvard, Vancouver, ISO, and other styles
40

Cho, Choong-Ho. "Structuration des données et caractérisation des ordonnancements admissibles des systèmes de production." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0053.

Full text
Abstract:
Dans ce mémoire, nous proposons, dans une phase préliminaire, la spécification et la modélisation de la base de données pour l'ordonnancement au sein d'une architecture hiérarchique de gestion de production, et de façon plus approfondie, la spécification analytique des ensembles de solutions admissibles pour aider à l'ordonnancement de trois types d'ateliers différents : - l'un, composé de plusieurs machines en en considérant les temps de réglage comme important sous des contraintes ensemblistes et Cou séquentielles, "flow-shop", un critère potentielles - un autre, composé d'une machine seule, avec des contraintes de dates limite de lots, la machine étant assimilée à une cellule de gestion au sein de l'atelier, et le "job-shop" classique, avec les trois contraintes précédentes: ensemblistes, potentielles, et dates limite. Un des caractères originaux de ce travail notamment, l'introduction d'une nouvelle structure de pour modéliser des familles de séquences de tâches
This work deals, on the one band, with the specification and the modelization of data bases for the scheduling problems in a hierarchical architecture of manufacturing systems, on the other hand, with the analytical specification of the set of feasible solutions for the decision support scheduling problems about three different types of workshops: - first, made up several machines (flowshop: sequences of operations are the same for all jobs), considering the important cri teri on as the set up times under set tasks groups) and potential. Constraints, - second, with only one machine, under the given due dates of jobs constraints, finally, organised in a jobshop, under the three previous constraints: set, potential and due dates. One of original researchs concerns the new structure: PQR trees, to characterise the set of feasible sequences of tasks
APA, Harvard, Vancouver, ISO, and other styles
41

Guégot, Françoise. "Gestion d'une base de données mixte, texte et image : application à la gestion médicale dentaire." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090042.

Full text
Abstract:
Dans le cadre de l’informatique des organisations, nous avons montré sur un exemple concret - cabinet dentaire - que l’apport de l’image peut être décisif pour l’aide à la décision. Cette démonstration est là pour fixer les principes d’un système de gestion de base de données mixtes. Une base de données textuelles est constituée grâce à un générateur de SIAD, ainsi que les traitements nécessaires sur ces données, une base de données d’images est définie en parallèle après un inventaire des différentes techniques de traitement de l’image, enfin une liaison est réalisée entre les deux pour constituer un système de gestion de bases de données mixtes
In the frame work of organizational data processing, we have shown, on an actual example -a dental surgeon cabinet- that image display constitutes a bonus which may prove decisive in decision making. This should be considered to play down the principles governing a mixed data basic managering system. A basis of text data will be constituted through an S. I. A. D generator which will also perform the necessary processing of the said data. A basis of image data will be established. In parallel with the former, from an inventory of the various image processing techniques. Finally, both basis will be connected to form the mixed data managerial system
APA, Harvard, Vancouver, ISO, and other styles
42

Le, Mahec G. "Gestion des bases de données biologiques sur grilles de calculs." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00462306.

Full text
Abstract:
Depuis le début des années 80, les bases de données biologiques n'ont cessé de gagner en volume. Une recherche sur ces bases qui ne prenait que quelques minutes peut désormais nécessiter plusieurs jours. En parallèle, la communauté de recherche en bioinformatique s'est développée et des laboratoires spécialisés sont nés partout dans le monde. La collaboration et l'échange de données entre équipes de recherche parfois géographiquement très éloignées a conduit à considérer la grille comme un moyen adapté à la fois aux nouveaux besoins en terme de puissance de calcul mais aussi comme outil de partage et de distribution des données biologiques entre chercheurs. L'utilisation de la grille pour la recherche en biologie et bioinformatique est un atout considérable, cependant de nouvelles problématiques apparaissent quant `a la gestion des données ainsi que dans l'ordonnancement des tâches qui doit prendre en compte la taille et la disponibilité des données. Cette thèse aborde ces problématiques nouvelles en prenant en compte les spécificités des bases de données biologiques pour une utilisation efficace de la grille. Nous montrons l'intérêt des approches semi-statiques joignant réplications de données et ordonnancement des tâches. Pour cela, nous avons procédé en trois étapes : une analyse théorique, une première validation par simulation et enfin une implantation sur plateforme réelle. La mise en place de la plateforme a mené à la conception d'un nouveau gestionnaire de données pour l'intergiciel DIET : DAGDA. Au-delà des applications de bioinformatique, ce gestionnaire de données peut répondre aux besoins de nombreuses applications portées sur les grilles de calcul
APA, Harvard, Vancouver, ISO, and other styles
43

Pierkot, Christelle. "Gestion de la Mise à Jour de Données Géographiques Répliquées." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00366442.

Full text
Abstract:
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.
L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.
La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.
L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).
Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.
Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.
La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.
APA, Harvard, Vancouver, ISO, and other styles
44

Gagnon, Bertrand. "Gestion d'information sur les procédés thermiques par base de données." Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Antoine, Émilien. "Gestion des données distribuées avec le langage de règles: Webdamlog." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00908155.

Full text
Abstract:
Notre but est de permettre à un utilisateur du Web d'organiser la gestion de ses données distribuées en place, c'est à dire sans l'obliger à centraliser ses données chez un unique hôte. Par conséquent, notre système diffère de Facebook et des autres systèmes centralisés, et propose une alternative permettant aux utilisateurs de lancer leurs propres pairs sur leurs machines gérant localement leurs données personnelles et collaborant éventuellement avec des services Web externes. Dans ma thèse, je présente Webdamlog, un langage dérivé de datalog pour la gestion de données et de connaissances distribuées. Le langage étend datalog de plusieurs manières, principalement avec une nouvelle propriété la délégation, autorisant les pairs à échanger non seulement des faits (les données) mais aussi des règles (la connaissance). J'ai ensuite mené une étude utilisateur pour démontrer l'utilisation du langage. Enfin je décris le moteur d'évaluation de Webdamlog qui étend un moteur d'évaluation de datalog distribué nommé Bud, en ajoutant le support de la délégation et d'autres innovations telles que la possibilité d'avoir des variables pour les noms de pairs et des relations. J'aborde de nouvelles techniques d'optimisation, notamment basées sur la provenance des faits et des règles. Je présente des expérimentations qui démontrent que le coût du support des nouvelles propriétés de Webdamlog reste raisonnable même pour de gros volumes de données. Finalement, je présente l'implémentation d'un pair Webdamlog qui fournit l'environnement pour le moteur. En particulier, certains adaptateurs permettant aux pairs Webdamlog d'échanger des données avec d'autres pairs sur Internet. Pour illustrer l'utilisation de ces pairs, j'ai implémenté une application de partage de photos dans un réseau social en Webdamlog.
APA, Harvard, Vancouver, ISO, and other styles
46

Le, Mahec Gaël. "Gestion des bases de données biologiques sur grilles de calcul." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21891.

Full text
Abstract:
L'utilisation de la grille pour la recherche en biologie et bioinformatique est un atout considérable, cependant de nouvelles problématiques apparaissent quant à la gestion des données ainsi que dans l'ordonnancement des tâches qui doit prendre en compte la taille et la disponibilité des données. Cette thèse aborde ces problématiques nouvelles en prenant en compte les spécificités des bases de données biologiques pour une utilisation efficace de la grille. Nous montrons l'intérêt des approches semi-statiques joignant réplications de données et ordonnancement des tâches. La mise en place d'une plateforme de soumission de requêtes BLAST a mené à la conception d'un nouveau gestionnaire de données pour l'intergiciel DIET : DAGDA. Au delà des applications de bioinformatique, ce gestionnaire de données peut répondre aux besoins de nombreuses applications portées sur les grilles de calcul
APA, Harvard, Vancouver, ISO, and other styles
47

Cheballah, Kamal. "Aides à la gestion des données techniques des produits industriels." Ecully, Ecole centrale de Lyon, 1992. http://www.theses.fr/1992ECDL0003.

Full text
Abstract:
Le travail presente dans cette these se situe dans le contexte de l'approche cim (computer integrated manufacturing) qui a pour but de supporter et d'organiser l'ensemble des taches d'elaboration de produits industriels a l'aide d'outils informatiques. Nous proposons une contribution a la mise en place d'un systeme global pour la realisation concrete de quelques maillons essentiels. Le premier chapitre introduit un modele d'organisation du processus d'elaboration au niveau logique et physique. Le second chapitre introduit un outil audros (systeme d'aide a l'utilisation de documents dans un reseau d'ordinateurs) qui permet aux utilisateurs de conduire l'elaboration a un niveau strictement logique. Tous les problemes du niveau physique (localisation des donnees, organisation, transport, etc. . . ) sont pris en charge automatiquement. Le chapitre 3 presente l'outil logiciel gelabor (gestion d'elaboration de produits) qui permet de gerer la coherence entre les produits d'une base de donnees techniques. En conclusion, apres validation de la demarche proposee, nous presentons un schema plus general prenant mieux en compte l'aspect concurrentiel et cooperatif des taches d'elaboration. Cette approche est illustree par la specification de gelabor 2 organisant la cooperation d'entites independantes par l'intermediaire d'un blackboard.
APA, Harvard, Vancouver, ISO, and other styles
48

Cobéna, Grégory. "Gestion des changements pour les données semi-structurés du Web." Palaiseau, Ecole polytechnique, 2003. http://www.theses.fr/2003EPXX0027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
APA, Harvard, Vancouver, ISO, and other styles
50

Ichiba, Abdellah. "Données radar bande X et gestion prédictive en hydrologie urbaine." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1007/document.

Full text
Abstract:
L'objectif principal de cette thèse était de parvenir à un outil de gestion fiable des bassins de rétention d'eaux pluviales en utilisant les données radar en bande X. Il s’est avéré que cela nécessite plusieurs développements de recherche. Le cas d’étude considéré comprend un bassin de 10000 m3 situé en Val-de-Marne et construit en aval d'un bassin versant urbain de 2.15 km2. Il assure un double rôle de traitement des eaux pluviales et de prévention des inondations par stockage du volume. Opérationnellement les modes de gestion associés à chacun de ces objectifs sont antagonistes si bien qu’une gestion prédictive a été mise en place ; exploitation routinière en mode anti-pollution et basculement vers le mode anti-inondation en cas de besoin. Il doit se faire sur la base d’une connaissance sûre de la situation pluvieuse prévue à court terme. Une façon courante de répondre aux besoins opérationnels de la gestion prédictive est de mettre en place un système d’alerte basé sur l’utilisation des données radar. Le système CALAMAR par exemple, repose sur l’utilisation des données radar brutes à mono polarisation du réseau radar de Météo-France; traitées avec des méthodes de conversion classiques Z-R et une calibration avec des pluviomètres. Cependant, la fiabilité de ce système fait débat, notamment vis-à-vis de la qualité de la mesure radar obtenue. Une nouvelle méthodologie de comparaison de produits radar a été développée au cours de cette thèse. Elle repose sur le cadre théorique des multifractals et permet une comparaison de la structure et de la morphologie des champs de précipitations dans l'espace et le temps à travers les échelles. Cette méthode a d'abord été appliquée sur les produits CALAMR et Météo-France, puis, pour confirmer certains des résultats, sur les premières données d’un radar bande X, acquis par l’Ecole des Ponts ParisTech dans le cadre du projet Européen RainGain et fournissant des mesures de précipitations à des échelles plus fines (jusqu’à 100m en espace et 1 min en temps). Les résultats obtenus mettent en évidence non seulement l'influence cruciale des méthodes de traitement des données brutes sur la variabilité spatio-temporelle à travers les échelles, mais permettent également de prédéfinir les conditions dans lesquelles la calibration CALAMAR peut aggraver la qualité des mesures. Elles seraient très difficiles à détecter par les méthodes classiques largement répandues, n’impliquant qu’un nombre très limité de pixels radar (seulement ceux correspondants aux pluviomètres au sol). Des extensions de la méthodologie proposée ouvriront de nouveaux horizons pour la calibration des données de pluie. Alors que la littérature scientifique, notamment autour expériences TOMACS au Japon et CASA aux Etats-Unis, souligne l’importance opérationnelle d’une mesure de pluie plus détaillée grâce au radar en bande X, son impact sur les performances des modèles hydrologiques fait encore débat. Les recherches antérieures, basée pour la plupart sur des modèles conceptuels, ne sont pas concluantes. Ainsi pour dépasser ces limites, nous avons utilisé deux modèles impliquant des approches de modélisation différentes : CANOE (semi-distribué et conceptuel) et Multi-Hydro (distribué et à base physique ; développé à l’ENPC). Une version opérationnelle de CANOE et une nouvelle configuration plus fine améliorant considérablement la sensibilité du modèle à la variabilité de la pluie ont été utilisées. Plusieurs développements ont été apportés à Multi-Hydro, y compris une optimisation de sa résolution, ce qui améliore grandement l'ensemble de ses fonctionnalités. Il ressort de ce travail qu’en prenant en compte la variabilité spatio-temporelle des précipitations à petite échelle, la performance des modèles hydrologiques peut être augmentée jusqu'à 20%.Nous pensons que cette thèse a contribué à la mise au point de nouveaux outils opérationnels, fiables ayant la capacité de prendre en compte les données en bande X haute résolution
The main goal of this thesis was to achieve a reliable management tool of storm water storage basins using high resolution X-band radar. It turned out that it required several research developments. The analysed case study includes a retention basin of 10000 m3 located in Val de Marne county downstream of a 2.15 km2 urban catchment. It has a twofold goal: storm water decontamination and flood protection by volume storage. Operationally the management strategies associated with these two aims are conflicting; hence, a predictive management has been set up: a routine exploitation of the basin in the anti-pollution mode, and a switch to the flood protection mode when needed. It should be based a reliable knowledge of short-term rainfall forecasts. A common way to respond to operational needs of the predictive management is to set up a warning system based on the use of radar data. For example, the CALAMAR system relies on the use of single-polarization raw radar data, coming from Meteo-France radar network, being processed with the conventional Z-R conversion methods followed by a calibration with rain gauge. However, the reliability of such warning systems has been subject to debate, often due to a questionable quality of the resulting radar rainfall estimates, compared to local rain gauges. Therefore a new methodology for more meaningful comparison of radar rainfall field products was developed during this PhD project. Being rooted to the multifractal theory, it allows a comparison of the structure and the morphology of rainfall fields in both space and time through scales. It was initially tested on CALAMAR and Meteo-France rainfall products before being applied for results confirmation on initial data from a X band radar, acquired by Ecole des Ponts ParisTech in the framework of the European project RainGain and providing data at higher resolution (up to 100 m in space and 1 min in time). The obtained results not only highlight the crucial influence of raw data processing on the scaling behaviour, but also permit to pre-define the conditions when the CALAMAR optimization may worsen the quality of rainfall estimates. Such conditions would be very difficult to detect with widely used conventional methods, which rely on a very limited number of radar pixels (only those containing rain gauges). Further extensions of the proposed methodology open new horizons for the rainfall data merging. While the scientific literature, notably around the TOMACS experiment in Japan and CASA one in the United States, highlights the operational benefits of higher resolution rainfall measurements thanks to X-band radars, its impact on the performance of hydrological models still remains a subject of debate. Indeed previous research, mainly based on conceptual models remains inconclusive. To overcome these limitations, we used two models relying on two very distinct modelling approaches: CANOE (semi-distributed and conceptual) and Multi-Hydro (fully distributed and physically based research model developed at ENPC). An operational version of CANOE and a new much finer configuration, which increases the sensitivity of the model to spatio-temporal variability of small-scale rainfall, were used. Several extensions of the Multi-Hydro were developed, including an optimization of its resolution, which greatly improves its whole functionality. It appears from this work that by taking into account the spatial and temporal variability of small-scale rainfall, the performance of hydrologic models can be increased up to 20%.Overall, we believe that this dissertation contributes to the development of new, reliable, operational tools to use in their full extent the high-resolution X-band data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography