Rozprawy doktorskie na temat „Passage à l'échelle des systèmes”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Passage à l'échelle des systèmes.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Passage à l'échelle des systèmes”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Schmidt, Loïc. "Passage à l'échelle des intergiciels RFID pour l'informatique diffuse". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10155/document.

Pełny tekst źródła
Streszczenie:
Selon le concept de l'Internet des Objets (IoT), chaque objet manufacturé se voit attribuer un identifiant unique se présentant sous forme d'une étiquette RFID (Radio Frequency Identification). L'arrivée de ces RFID dans le processus de gestion des biens soulève des problématiques techniques telles que leur intégration dans l'Internet qui permettra d'accéder aux informations relatives à l'objet identifié, recueillies durant sa vie. En effet, avec l'expansion d'une telle technologie, l'architecture de cet IoT doit être capable de passer à l'échelle et doit fournir un moyen efficace de gérer ces informations. Afin de faciliter le développement et le déploiement de solutions RFID, des standards ont été mis en place par EPCGlobal définissant les interfaces d'un intergiciel RFID : un composant filtrant et agrégeant les évènements issus des lecteurs (ALE), un composant stockant ces données (EPCIS), un composant permettant de retrouver ces bases de données (ONS), etc.Nous proposons une solution de distribution de ces différents composants utilisant les techniques des tables de hachages distribuées. Nous présentons un composant ALE distribué, qui offre la possibilité d'interroger n'importe quel lecteur partagé du réseau ainsi qu'une solution pour l'interrogation des EPCIS de façon efficace, sans surcharger le réseau. Étant donné l'importance du système d'ONS, qui est à l'IoT ce que le DNS est à l'Internet, nous avons exploré une solution alternative à celle des DNS afin de distribuer ce composant. Nos solutions permettent un passage à l'échelle efficace de l'intergiciel d'EPCGlobal, offrant un intergiciel générique pour l'informatique diffuse
Following the Internet of Things (IoT) concept, each manufactured object is associated with an RFID tag (Radio Frequency IDentification) embedding a unique identifier. The incoming of this RFID in the management of goods process rises technical issues such as their integration into the Internet allowing to access object related information gathered along its life. Indeed, with the spreading of this technology, the architecture of this IoT must be scalable and must provide an efficient way for managing these informations. In order to facilitate the development and the deployment of RFID solutions, standards have been ratified by EPCGlobal specifying interfaces for an RFID middleware: a component filtering and collecting events coming from readers (ALE), a component stocking these informations (EPCIS), a component allowing to retrieve these databases (ONS), ...We propose a distributed solution of these different components by using the distributed hash tables technology. We present a distributed ALE component that provides a way to interrogate every shared reader in the network, and a solution to query and retrieve informations from EPCIS in a efficient manner, without overloading the network. Considering the importance of the ONS system, which is to IoT what DNS is to Internet, we have explored an alternate solution to the DNS one in order to distribute this component. Our solutions offer an efficient scalability to the EPCGlobal middleware, providing a generic middleware for ubiquitous computing
Style APA, Harvard, Vancouver, ISO itp.
2

Olejnik, Richard. "Passage à l'échelle d'applications java distribuées auto-adaptatives". Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00833237.

Pełny tekst źródła
Streszczenie:
L'évolution rapide des réseaux, des stations de travail, des gros calculateurs sans oublier les ordinateurs personnels, donne naissance à de nouvelles alternatives architecturales pour les traitements parallèles et distribués. Les Grappes, les grilles de calcul et plus récemment le calcul en nuages (Cloud Computing) répondent aux besoins en calcul sans cesse croissants, grâce à des nouveaux paradigmes et concepts logiciels et systèmes basés sur la programmation distribuée. Les principales caractéristiques des applications développées dans ce cadre sont d'être hétérogènes, irrégulières et imprévisibles. Pour permettre une exécution efficace des applications réparties en Java, nous proposons un environnement de programmation et un environnement d'exécution (ADAJ : Adaptative Distributed Applications in Java) qui optimise le placement dynamique des objets de l'application sur les grappes et les grilles d'ordinateurs. Cette répartition s'appuie sur de nouveaux mécanismes d'observation de l'activité des objets et des relations entre eux. Le gain de cette distribution flexible et adaptative des objets se traduit par une meilleure efficacité de l'exécution et la possibilité d'utiliser au mieux la puissance des différents calculateurs, tout en minimisant les coûts de communication et les surcoûts liés au contrôle de l'application. Munie de ces mécanismes, la plate-forme logicielle ADAJ assure une répartition adaptative et automatique des éléments de l'application sur la plateforme d'exécution, répondant de cette façon, aux évolutions du calcul et aux modifications de la disponibilité des ressources. Ce fonctionnement est basé sur un procédé de vol de cycle et permet de contrôler la granularité du traitement. Le programmeur n'a plus en principe, à s'en préoccuper. Les mécanismes ont été implémentés pour diverses plateformes et technologies. Dans un premier temps, ils ont été conçus pour fonctionner sur des grappes de stations de travail. Nous avons ensuite fait évoluer les solutions adoptées pour fonctionner sur des réseaux plus vastes (passage à l'échelle). En particulier, nous avons introduit un framework basé sur des composants logiciels, qui aide le concepteur à bâtir des applications pour grilles d'ordinateurs. Puis, ces travaux ont été étendus, de sorte que la plateforme ADAJ est aujourd'hui, un intergiciel à part entière. Elle est basée sur des web services et son système d'information, sur des systèmes à agents. Les mécanismes d'ADAJ peuvent maintenant gérer des plateformes d'exécution de type grille composées, à priori de milliers de machines. Nous avons finalement testé cette approche pour des problèmes de fouille de données à l'aide d'algorithmes distribués, spécifiquement développés. De cette façon nous avons répondu à la problématique actuelle concernant la mise en oeuvre et l'exploitation d'architecture de grille par des systèmes de type SOKU (Service Oriented Knowledge Utilities). Pour conclure, nous montrons comment nos travaux pourraient être utilisés dans l'environnement des systèmes-sur-puce de nouvelle génération.
Style APA, Harvard, Vancouver, ISO itp.
3

Tran, Viet-Trung. "Sur le passage à l'échelle des systèmes de gestion des grandes masses de données". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00783724.

Pełny tekst źródła
Streszczenie:
La problématique "Big Data" peut être caractérisée par trois "V": * "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. * "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. * "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture.
Style APA, Harvard, Vancouver, ISO itp.
4

Godard, Paul. "Parallélisation et passage à l'échelle durable d'une chaïne de traitement graphique pour l'impression professionnelle". Thesis, Strasbourg, 2019. https://publication-theses.unistra.fr/public/theses_doctorat/2019/Godard_Paul_2019_ED269.pdf.

Pełny tekst źródła
Streszczenie:
Les nombreuses avancées du vaste domaine de l’impression professionnelle ont permis la multiplication des objets imprimés dans nos quotidiens. Désormais, la flexibilité introduite par les procédés d’impression numérique promet d’associer les souhaits de personnalisation avec les avantages de la production de masse. La rapide évolution des usages et des technologies, caractérisée par des fermes d’impression toujours plus grandes et des presses numériques toujours plus rapides, pose des problèmes inédits aux systèmes informatiques actuels qui pilotent les imprimantes. Dans cette thèse, nous explorons de nouvelles techniques inspirées des systèmes de calcul haute performance afin d’accélérer l’exécution des traitements graphiques indispensables à l’impression numérique. Nous introduisons pour cela une architecture de calculs distribués flexible exploitant des techniques de traitement et de synchronisation optimisées. Nous détaillons les principes de fonctionnement et les subtilités de l’implémentation de nos travaux qui permettent de respecter les contraintes spécifiques des flux de données produits. Nous réalisons une évaluation complète de notre solution qui y démontre ses excellentes performances et sa viabilité
The strong and continuous improvements in the professional printing field have led to the ubiquity of printed objects in our daily life. The flexibility introduced by the digital printing process promises to associate extensive customization with mass production. The quick growth of printing usages and technologies, illustrated by wider printer farms and faster digital presses, leads to original challenges for the computer system in charge of driving them. In this thesis, we explore new approaches inspired by the high performance computing field to speedup the graphics processing necessary to digital printing. To achieve this goal, we introduce a distributed system which provides the adequate flexibility and performance by exploiting and optimizing both processing and synchronization techniques. We present our architecture up to the subtle parts of its implementation which allows our solution to meet the specific constraints on generating streams for printing purpose. We perform a complete evaluation of our solution and provide experimental evidence of its great performance and viability
Style APA, Harvard, Vancouver, ISO itp.
5

Quiane-Ruiz, Jorge-Arnulfo. "Allocation de Requêtes dans des Systèmes d'Information Distribués avec des Participants Autonomes". Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00464475.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons aux systèmes d'informations où les participants (clients et fournisseurs) sont autonomes, c.à.d. ils peuvent décider de quitter le système à n'importe quel moment, et qu'ils ont des intérêts particuliers pour certaines requêtes. Dans ces environnements, l'allocation de requêtes est un défi particulier car les attentes des participants ne sont pas seulement liées aux performances du système. Dans ce contexte, l'insatisfaction des participants est un problème car elle peut les conduire à quitter le système. Par conséquent, il est très important de répondre aux attentes des participants de sorte à ce qu'ils soient satisfaits. Dans cette thèse, nous abordons ce problème en apportant quatre contributions principales. Primo, nous fournissons un modèle pour caractériser la perception des participants par rapport au système et proposons des mesures qui permettent d'évaluer la qualité des méthodes d'allocation de requêtes. Secundo, nous proposons une méthode d'allocation de requêtes, SbQA, qui permet d'équilibrer à la volée les intérêts tant des clients que des fournisseurs en se basant sur leur satisfaction. Tertio, nous proposons $bQA : une version économique de SbQA qui permet de passer à l'échelle en nombre de médiateurs, de participants, et par conséquent, de requêtes traitées. Quarto, nous proposons SbQR : une méthode de réplication de requêtes qui permet de supporter les pannes éventuelles des participants, tout en préservant leur satisfaction.
Style APA, Harvard, Vancouver, ISO itp.
6

Dumas, Julie. "Représentation dynamique de la liste des copies pour le passage à l'échelle des protocoles de cohérence de cache". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM093/document.

Pełny tekst źródła
Streszczenie:
Le problème du passage à l’échelle des protocoles de cohérence de cache qui se pose pour les machines parallèles se pose maintenant aussi sur puce, suite à l’émergence des architectures manycores. Il existe fondamentalement deux classes de protocoles : ceux basés sur l’espionnage et ceux utilisant un répertoire. Les protocoles basés sur l’espionnage, qui doivent transmettre à tous les caches les informations de cohérence, engendrent un nombre important de messages dont peu sont effectivement utiles. En revanche, les protocoles avec répertoires visent à n’envoyer des messages qu’aux caches qui en ont besoin. L’implémentation la plus évidente utilise un champ de bits complet dont la taille dépend uniquement du nombre de cœurs. Ce champ de bits représente la liste des copies. Pour passer à l’échelle, un protocole de cohérence doit émettre un nombre raisonnable de messages de cohérence et limiter le matériel utilisé pour la cohérence et en particulier pour la liste des copies. Afin d’évaluer et de comparer les différents protocoles et leurs représentations de la liste des copies, nous proposons tout d’abord une méthode de simulation basée sur l’injection de traces dans un modèle de cache à haut niveau. Cette méthode permet d’effectuer rapidement l’exploration architecturale des protocoles de cohérence de cache. Dans un second temps, nous proposons une nouvelle représentation dynamique de la liste des copies pour le passage à l’échelle des protocoles de cohérence de cache. Pour une architecture à 64 cœurs, 93% des lignes de cache sont partagées par au maximum 8 cœurs, sachant par ailleurs que le système d’exploitation chercher à placer les tâches communicantes proches les unes des autres. Notre représentation dynamique de la liste des copies tire parti de ces deux observations en utilisant un champ de bits pour un sous-ensemble des copies et une liste chaînée. Le champ de bits correspond à un rectangle à l’intérieur duquel la représentation de la liste des copies est exacte. La position et la forme de ce rectangle évoluent au cours de la durée de vie des applications. Plusieurs algorithmes pour le placement du rectangle cohérent sont proposés et évalués. Pour finir, nous effectuons une comparaison avec les représentations de la liste des copies de l’état de l’art
Cache coherence protocol scalability problem for parallel architecture is also a problem for on chip architecture, following the emergence of manycores architectures. There are two protocol classes : snooping and directory-based.Protocols based on snooping, which send coherence information to all caches, generate a lot of messages whose few are useful.On the other hand, directory-based protocols send messages only to caches which need them. The most obvious implementation uses a full bit vector whose size depends only on the number of cores. This bit vector represents the sharing set. To scale, a coherence protocol must produce a reasonable number of messages and limit hardware ressources used by the coherence and in particular for the sharing set.To evaluate and compare protocols and their sharing set, we first propose a method based on trace injection in a high-level cache model. This method enables a very fast architectural exploration of cache coherence protocols.We also propose a new dynamic sharing set for cache coherence protocols, which is scalable. With 64 cores, 93% of cache blocks are shared by up to 8 cores.Futhermore, knowing that the operating system looks to place communicating tasks close to each other. Our dynamic sharing set takes advantage from these two observations by using a bit vector for a subset of copies and a linked list. The bit vector corresponds to a rectangle which stores the exact sharing set. The position and shape of this rectangle evolve over application's lifetime. Several algorithms for coherent rectangle placement are proposed and evaluated. Finally, we make a comparison with sharing sets from the state of the art
Style APA, Harvard, Vancouver, ISO itp.
7

Lamarche-Perrin, Robin. "Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00933186.

Pełny tekst źródła
Streszczenie:
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
Style APA, Harvard, Vancouver, ISO itp.
8

Saeida, Ardekani Masoud. "Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066234/document.

Pełny tekst źródła
Streszczenie:
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête
In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%
Style APA, Harvard, Vancouver, ISO itp.
9

Sakka, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle". Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0023/document.

Pełny tekst źródła
Streszczenie:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d’échange, de partage et de stockage de l’information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d’accès ainsi qu’une efficacité d’organisation et de recherche de l’information. Malgré ses avantages, l’information numérique a l’inconvénient d’être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l’information et pour vérifier si elle répond à un ensemble d’exigences métier, techniques et légales. Aujourd’hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L’objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l’information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l’exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l’hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d’interprétation minimal et commun pour n’importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l’interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d’abord une architecture logique de PMS indépendante des choix technologiques d’implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d’un PMS. Par la suite, et afin de préserver l’autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l’ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l’archivage de documents à valeur probante. Ensuite, l’aspect passage à l’ échelle de notre architecture a été testé par l’implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l’interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
Provenance is a key metadata for assessing electronic documents trustworthiness. It allows to prove the quality and the reliability of its content. With the maturation of service oriented technologies and Cloud computing, more and more data is exchanged electronically and dematerialization becomes one of the key concepts to cost reduction and efficiency improvement. Although most of the applications exchanging and processing documents on the Web or in the Cloud become provenance aware and provide heterogeneous, decentralized and not interoperable provenance data, most of Provenance Management Systems (PMSs) are either dedicated to a specific application (workflow, database, ...) or a specific data type. Those systems were not conceived to support provenance over distributed and heterogeneous sources. This implies that end-users are faced with different provenance models and different query languages. For these reasons, modeling, collecting and querying provenance across heterogeneous distributed sources is considered today as a challenging task. This is also the case for designing scalable PMSs providing these features. In the fist part of our thesis, we focus on provenance modelling. We present a new provenance modelling approach based on semantic Web technologies. Our approach allows to import provenance data from heterogeneous sources, to enrich it semantically to obtain high level representation of provenance. It provides syntactic interoperability between those sources based on a minimal domain model (MDM), supports the construction of rich domain models what allows high level representations of provenance while keeping the semantic interoperability. Our modelling approch supports also semantic correlation between different provenance sources and allows the use of a high level semantic query language. In the second part of our thesis, we focus on the design, implementation and scalability issues of provenance management systems. Based on our modelling approach, we propose a centralized logical architecture for PMSs. Then, we present a mediator based architecture for PMSs aiming to preserve provenance sources distribution. Within this architecture, the mediator has a global vision on all provenance sources and possesses query processing and distribution capabilities. The validation of our modelling approach was performed in a document archival context within Novapost, a company offering SaaS services for documents archiving. Also, we propose a non-functional validation aiming to test the scalability of our architecture. This validation is based on two implementation of our PMS : he first uses an RDF triple store (Sesame) and the second a NoSQL DBMS coupled with the map-reduce parallel model (CouchDB). The tests we performed show the limits of Sesame in storing and querying large amounts of provenance data. However, the PMS based on CouchDB showed a good performance and a linear scalability
Style APA, Harvard, Vancouver, ISO itp.
10

SAKKA, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle". Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00762641.

Pełny tekst źródła
Streszczenie:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d'échange, de partage et de stockage de l'information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d'accès ainsi qu'une efficacité d'organisation et de recherche de l'information. Malgré ses avantages, l'information numérique a l'inconvénient d'être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l'information et pour vérifier si elle répond à un ensemble d'exigences métier, techniques et légales. Aujourd'hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L'objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l'information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l'exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l'hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d'interprétation minimal et commun pour n'importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l'interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d'abord une architecture logique de PMS indépendante des choix technologiques d'implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d'un PMS. Par la suite, et afin de préserver l'autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l'ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l'archivage de documents à valeur probante. Ensuite, l'aspect passage à l' échelle de notre architecture a été testé par l'implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l'interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
Style APA, Harvard, Vancouver, ISO itp.
11

Cattan, Oralie. "Systèmes de questions-réponses interactifs à grande échelle". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG090.

Pełny tekst źródła
Streszczenie:
La recherche informationnelle a évolué avec notre besoin d'instantanéité et d'intuitivité en une forme d'interrogation en langue naturelle, non plus uniquement axée sur l'utilisation de mots clés pertinents. L'étude de ces interactions soulève des problématiques majeures relevant du champ de la compréhension en ce qui concerne la contextualisation des questions. En effet, les questions sont rarement posées isolément. Regroupées, elles forment un dialogue qui se construit et se structure au fil de l'échange. Dans la série de questions suivantes : « Quel est le prix d'une chambre d'hôtel à Montréal ? », « Comment préparer un gâteau basque », « Que faut-il savoir sur les abeilles noires ? », « Dorment-elles ? », l'interprétation de certaines questions dépend des questions et réponses précédemment posées. Dans ce contexte, concevoir un système de réponse aux questions interactif capable de soutenir une conversation qui ne se résume pas à une simple succession de questions-réponses sporadiques constitue un défi en matière de modélisation et de calcul haute performance. L'évolution des techniques et solutions de calculs intensifs, la disponibilité de grands volumes de données brutes (dans le cas de l'apprentissage non supervisé) ou enrichies avec des informations linguistiques ou sémantiques (dans le cas de l'apprentissage supervisé) ont permis aux méthodes d'apprentissage automatique de connaître des développement important, avec des applications considérables dans le milieu industriel. Malgré leurs succès, ces modèles, de domaine et de langue, appris à partir d'une quantité de données massive avec un nombre de paramètres important font émerger des questions d'utilisabilité et apparaissent aujourd'hui peu optimaux, compte tenu des nouveaux enjeux de sobriété numérique. Dans une entreprise réelle où les systèmes sont développés rapidement et devraient fonctionner de manière robuste pour une variété croissante de domaines, de tâches et de langues, un apprentissage rapide et efficace à partir d'un nombre limité d'exemples est indispensable. Dans cette cette thèse nous approfondissons chacune des problématiques susmentionnées et proposons des approches fondées sur le transfert de connaissances issues de représentations latentes et contextuelles pour optimiser les performances et faciliter le déploiement à grande échelle
Informational search has evolved with our need for immediacy and intuitiveness into a form of natural language querying, no longer solely focused on the use of relevant keywords. The study of these interactions raises major issues in the field of machine understanding with regard to the contextualization of questions. Indeed, questions are rarely asked in isolation. Grouped together, they form a dialogue that is built and structured over the course of the conversation. In the following series of questions: “How much does a hotel room cost in Montreal? », « how to prepare a Basque cake », « what are black bees? », « do they sleep? », the interpretation of some questions depends on the questions and answers previously asked. In this context, designing an interactive question-answering system capable of sustaining a conversation that is not limited to a simple succession of sporadic questions and answers constitutes a challenge in terms of contextual modeling and high-performance computing. The evolution of intensive computing techniques and solutions, the availability of large volumes of raw data (in the case of unsupervised learning) or enriched with linguistic or semantic information (in the case of supervised learning) have allowed machine learning methods to experience significant development, with considerable applications in the industrial sector. Despite their success, these domain and language models, learned from a massive amount of data with a large number of parameters, raise questions of usability and today appear less than optimal, given the new challenges of digital sobriety. In a real business scenario, where systems are developed rapidly and are expected to work robustly for an increasing variety of domains, tasks and languages, fast and efficient learning from a limited number of examples is essential. In this thesis we deepen each of the aforementioned issues and propose approaches based on the knowledge transfer from latent and contextual representations to optimize performance and facilitate a cost-effective large-scale deployment of systems
Style APA, Harvard, Vancouver, ISO itp.
12

Saeida, Ardekani Masoud. "Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués". Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066234.

Pełny tekst źródła
Streszczenie:
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête
In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%
Style APA, Harvard, Vancouver, ISO itp.
13

Mercier, Annabelle. "Modélisation et prototypage d'un système de recherche d'informations basé sur la proximité des occurences des termes de la requête dans les documents". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00785143.

Pełny tekst źródła
Streszczenie:
La croissance des données numériques accentue le verrou scientifique de la RI consistant à trouver un compromis entre exhaustivité et précision des résultats. Le modèle proposé, la proximité floue (PF), allie expressivité des requêtes booléennes et utilisation de la proximité, et vise une approche à haute précision. Chaque mot-clé possède une zone d'influence utile à l'évaluation des requêtes. Les opérations floues associées aux opérateurs booléens classiques permettent de propager la proximité jusqu'à la racine. La PF a été largement validée sur les collections de test classiques et pour les éditions 2005 et 2006 des campagnes d'évaluations internationales de RI (Trec, Clef et Inex 2006). Les résultats sur des requêtes construites automatiquement sont équivalents à ceux des méthodes de référence Okapi/Lucy, vectoriel/MG. Par contre, avec l'utilisation de requêtes manuelles adaptées à la PF, les résultats sont très largement supérieurs aux modèles classiques.
Style APA, Harvard, Vancouver, ISO itp.
14

El, Merhebi Souad. "La gestion d'effet : une méthode de filtrage pour les environnements virtuels répartis". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/243/1/El_Merhebi_Souad.pdf.

Pełny tekst źródła
Streszczenie:
Les environnements virtuels distribués (EVDs) sont destinés à fournir à leurs utilisateurs une expérience immersive au sein d'un environnement virtuel partagé. Pour cette raison, les EVDs essaient d'apporter aux différents participants des vues cohérentes du monde partagé. Ceci nécessite un échange intense de messages en particulier pour les EVDs fortement peuplés. Cet important échange de messages consomme beaucoup de ressources de calcul et réseau, ce qui ralentit le système et limite l'interactivité. Ainsi, la cohérence, l'interactivité et le passage à l'échelle sont trois besoins primordiales pour les EVDs. Par contre, ces besoins sont contradictoires : le besoin de cohérence requiert un échange plus important de messages alors que ceux d'interactivité et de passage à l'échelle demandent de diminuer au minimum ces échanges. Pour gérer l'échange de messages d'une manière intelligente, les systèmes d'EVDs utilisent des méthodes de filtrage différentes. Parmi ces méthodes, les méthodes de gestion d'intérêt filtrent les messages en se basant sur les intérêts des utilisateurs dans le monde. Dans ce document, nous présentons notre méthode de gestion d'intérêt, la gestion d'effet. Cette méthode exprime les intérêts et les manifestations des participants dans les différents média à travers les zones de conscience et d'effet. Lorsque la zone de conscience d'un participant chevauche la zone d'effet d'un autre dans un média, le premier devient conscient du second dans ce média. De plus, pour un passage à l'échelle continu, la gestion d'effet a été développée au sein d'une architecture client/multi-serveurs qui gère les intérêts des participants à travers les serveurs. .
Distributed virtual environments (DVEs) are intended to provide an immersive experience to their users within a shared virtual environment. For this purpose, DVEs try to supply participants with coherent views of the shared world. This requires a heavy message exchange between participants especially with the increasing popularity of massively multiplayer DVEs. This heavy message exchange consumes a lot of processing power and bandwidth, slowing down the system and limiting interactivity. Indeed, coherence, interactivity and scalability are basic requirements of DVEs. However, these requirements are conflicting because coherence requires the more important exchange of messages that we can have while interactivity and scalability demand to decrease this exchange to minimum. For this reason, the management of message exchange is essential for distributed virtual environments. To manage message exchange in an intelligent way, DVE systems use various filtering techniques. Among them, interest management techniques filter messages according to users' interests in the world. In this document, we present our interest management technique, the effect management. This technique expresses the interests and manifestations of participants in various media through conscience and effect zones. When the conscience zone of a participant collides the effect zone of another participant in a given medium, the first one becomes conscious of the second. ). .
Style APA, Harvard, Vancouver, ISO itp.
15

Quesnel, Flavien. "Vers une gestion coopérative des infrastructures virtualisées à large échelle : le cas de l'ordonnancement". Phd thesis, Ecole des Mines de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-00821103.

Pełny tekst źródła
Streszczenie:
Les besoins croissants en puissance de calcul sont généralement satisfaits en fédérant de plus en plus d'ordinateurs (ou noeuds) pour former des infrastructures distribuées. La tendance actuelle est d'utiliser la virtualisation système dans ces infrastructures, afin de découpler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gérer efficacement ces infrastructures virtualisées, de nouveaux gestionnaires logiciels ont été mis en place. Ces gestionnaires sont pour la plupart hautement centralisés (les tâches de gestion sont effectuées par un nombre restreint de nœuds dédiés). Cela limite leur capacité à passer à l'échelle, autrement dit à gérer de manière réactive des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thèse, nous nous sommes intéressés aux façons d'améliorer cet aspect ; l'une d'entre elles consiste à décentraliser le traitement des tâches de gestion, lorsque cela s'avère judicieux. Notre réflexion s'est concentrée plus particulièrement sur l'ordonnancement dynamique des machines virtuelles, pour donner naissance à la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en œuvre un prototype, que nous avons validé au travers de simulations (notamment via l'outil SimGrid), et d'expériences sur le banc de test Grid'5000. Nous avons pu constater que DVMS se montrait particulièrement réactif pour gérer des infrastructures virtualisées constituées de dizaines de milliers de machines virtuelles réparties sur des milliers de nœuds. Nous nous sommes ensuite penchés sur les perspectives d'extension et d'amélioration de DVMS. L'objectif est de disposer à terme d'un gestionnaire décentralisé complet, objectif qui devrait être atteint au travers de l'initiative Discovery qui fait suite à ces travaux.
Style APA, Harvard, Vancouver, ISO itp.
16

Gueye, Modou. "Gestion de données de recommandation à très large échelle". Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0083.

Pełny tekst źródła
Streszczenie:
Cette thèse s'intéresse à la problématique de passage à l'échelle des systèmes de recommandations. Dans ce cadre, nous proposons deux algorithmes de recommandation passant à l'échelle tout en délivrant une bonne qualité de recommandation. Dans nos premiers travaux, nous considérons l'utilisation de la factorisation de matrice pour prédire les avis des utilisateurs dans des contextes dynamiques où les utilisateurs soumettent sans cesse de nouveaux avis sur des objets. Il est difficile d'y tenir un modèle de prédiction à jour. Nous proposons un modèle de factorisation utilisant plusieurs biais locaux décrivant de façon plus élaborée les comportements des utilisateurs. Leur coût de calcul faible permet de les ajuster à la volée, lorsque de nouvelles notes arrivent. Ils assurent ainsi la robustesse du modèle dans un contexte dynamique, tout en garantissant une meilleure qualité au cours le temps. Nous nous sommes aussi intéressés à la recommandation de tags dans les réseaux sociaux. Notre proposition s'appuie sur l'algorithme des plus proches voisins. Cependant, nous déterminons dynamiquement le nombre optimal de voisins à utiliser. Notre approche prend en compte les avis des voisins indirects en étendant la relation de proximité entre les utilisateurs. Nos expérimentations ont démontré l'efficacité de cette approche qui peut être adaptée à bien d'autres types de recommandation. Enfin, nous proposons une technique d'optimisation du nombre d'objets à recommander en fonction du contexte. L'idée étant ici de chercher le nombre optimal d'objets à proposer à l'utilisateur, de telle sorte que la probabilité qu'il les choisisse tous soit la plus élevée
In this thesis, we address the scalability problem of recommender systems. We propose accu rate and scalable algorithms. We first consider the case of matrix factorization techniques in a dynamic context, where new ratings..are continuously produced. ln such case, it is not possible to have an up to date model, due to the incompressible time needed to compute it. This happens even if a distributed technique is used for matrix factorization. At least, the ratings produced during the model computation will be missing. Our solution reduces the loss of the quality of the recommendations over time, by introducing some stable biases which track users' behavior deviation. These biases are continuously updated with the new ratings, in order to maintain the quality of recommendations at a high leve for a longer time. We also consider the context of online social networks and tag recommendation. We propose an algorithm that takes account of the popularity of the tags and the opinions of the users' neighborhood. But, unlike common nearest neighbors' approaches, our algorithm doe not rely on a fixed number of neighbors when computing a recommendation. We use a heuristic that bounds the network traversai in a way that allows to faster compute the recommendations while preserving the quality of the recommendations. Finally, we propose a novel approach that improves the accuracy of the recommendations for top-k algorithms. Instead of a fixed list size, we adjust the number of items to recommend in a way that optimizes the likelihood that ail the recommended items will be chosen by the user, and find the best candidate sub-list to recommend to the user
Style APA, Harvard, Vancouver, ISO itp.
17

Doucet, Antoine. "Extraction, Exploitation and Evaluation of Document-based Knowledge". Habilitation à diriger des recherches, Université de Caen, 2012. http://tel.archives-ouvertes.fr/tel-01070505.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce mémoire gravitent autour du document numérique : Extraction de connaissances, utilisation de connaissances et évaluation des connaissances extraites, d'un point de vue théorique aussi bien qu'expérimental. Le fil directeur de mes travaux de recherche est la généricité des méthodes produites, avec une attention particulière apportée à la question du passage à l'échelle. Ceci implique que les algorithmes, principalement appliqués au texte dans ce mémoire, fonctionnent en réalité pour tout type de donnée séquentielle. Sur le matériau textuel, la généricité et la robustesse algorithmique des méthodes permettent d'obtenir des approches endogènes, fonctionnant pour toute langue, pour tout genre et pour tout type de document (et de collection de documents). Le matériau expérimental couvre ainsi des langues utilisant différents alphabets, et des langues appartenant à différentes familles linguistiques. Les traitements peuvent d'ailleurs être appliqués de la même manière au grain phrase, mot, ou même caractère. Les collections traitées vont des dépêches d'agence de presse aux ouvrages numérisés, en passant par les articles scientifiques. Ce mémoire présente mes travaux en fonction des différentes étapes du pipeline de traitement des documents, de leur appréhension à l'évaluation applicative. Le document est ainsi organisé en trois parties décrivant des contributions en : extraction de connaissances (fouille de données séquentielle et veille multilingue) ; exploitation des connaissances acquises, par des applications en recherche d'information, classification et détection de synonymes via un algorithme efficace d'alignement de paraphrases ; méthodologie d'évaluation des systèmes d'information dans un contexte de données massives, notamment l'évaluation des performances des systèmes de recherche d'information sur des bibliothèques numérisées.
Style APA, Harvard, Vancouver, ISO itp.
18

Diaconu, Raluca. "Passage à l'échelle pour les mondes virtuels". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066090/document.

Pełny tekst źródła
Streszczenie:
La réalité mixe, les jeux en ligne massivement multijoueur (MMOGs), les mondes virtuels et le cyberespace sont des concepts extrêmement attractifs. Mais leur déploiement à large échelle reste difficile et il est en conséquence souvent évité.La contribution principale de la thèse réside dans le système distribué Kiwano, qui permet à un nombre illimité d'avatars de peupler et d'interagir simultanément dans un même monde contigu. Dans Kiwano nous utilisons la triangulation de Delaunay pour fournir à chaque avatar un nombre constant de voisins en moyenne, indépendamment de leur densité ou distribution géographique. Le nombre d'interactions entre les avatars et les calculs inhérents sont bornés, ce qui permet le passage à l'échelle du système.La charge est repartie sur plusieurs machines qui regroupent sur un même nœud les avatars voisins de façon contiguë dans le graphe de Delaunay. L'équilibrage de la charge se fait de manière contiguë et dynamique, en suivant la philosophie des réseaux pair-à-pair (peer-to-peer overlays). Cependant ce principe est adapté au contexte de l'informatique dématérialisée (cloud computing).Le nombre optimal d'avatars par CPU et les performances de notre système ont été évalués en simulant des dizaines de milliers d'avatars connectés à la même instance de Kiwano tournant à travers plusieurs centres de traitement de données.Nous proposons également trois applications concrètes qui utilisent Kiwano : Manycraft est une architecture distribuée capable de supporter un nombre arbitrairement grand d'utilisateurs cohabitant dans le même espace Minecraft, OneSim, qui permet à un nombre illimité d'usagers d'être ensemble dans la même région de Second Life et HybridEarth, un monde en réalité mixte où avatars et personnes physiques sont présents et interagissent dans un même espace: la Terre
Virtual worlds attract millions of users and these popular applications --supported by gigantic data centers with myriads of processors-- are routinely accessed. However, surprisingly, virtual worlds are still unable to host simultaneously more than a few hundred users in the same contiguous space.The main contribution of the thesis is Kiwano, a distributed system enabling an unlimited number of avatars to simultaneously evolve and interact in a contiguous virtual space. In Kiwano we employ the Delaunay triangulation to provide each avatar with a constant number of neighbors independently of their density or distribution. The avatar-to-avatar interactions and related computations are then bounded, allowing the system to scale. The load is constantly balanced among Kiwano's nodes which adapt and take in charge sets of avatars according to their geographic proximity. The optimal number of avatars per CPU and the performances of our system have been evaluated simulating tens of thousands of avatars connecting to a Kiwano instance running across several data centers, with results well beyond the current state-of-the-art.We also propose Kwery, a distributed spatial index capable to scale dynamic objects of virtual worlds. Kwery performs efficient reverse geolocation queries on large numbers of moving objects updating their position at arbitrary high frequencies. We use a distributed spatial index on top of a self-adaptive tree structure. Each node of the system hosts and answers queries on a group of objects in a zone, which is the minimal axis-aligned rectangle. They are chosen based on their proximity and the load of the node. Spatial queries are then answered only by the nodes with meaningful zones, that is, where the node's zone intersects the query zone.Kiwano has been successfully implemented for HybridEarth, a mixed reality world, Manycraft, our scalable multiplayer Minecraft map, and discussed for OneSim, a distributed Second Life architecture. By handling avatars separately, we show interoperability between these virtual worlds.With Kiwano and Kwery we provide the first massively distributed and self-adaptive solutions for virtual worlds suitable to run in the cloud. The results, in terms of number of avatars per CPU, exceed by orders of magnitude the performances of current state-of-the-art implementations. This indicates Kiwano to be a cost effective solution for the industry. The open API for our first implementation is available at \url{http://kiwano.li}
Style APA, Harvard, Vancouver, ISO itp.
19

Diaconu, Raluca. "Passage à l'échelle pour les mondes virtuels". Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066090.

Pełny tekst źródła
Streszczenie:
La réalité mixe, les jeux en ligne massivement multijoueur (MMOGs), les mondes virtuels et le cyberespace sont des concepts extrêmement attractifs. Mais leur déploiement à large échelle reste difficile et il est en conséquence souvent évité.La contribution principale de la thèse réside dans le système distribué Kiwano, qui permet à un nombre illimité d'avatars de peupler et d'interagir simultanément dans un même monde contigu. Dans Kiwano nous utilisons la triangulation de Delaunay pour fournir à chaque avatar un nombre constant de voisins en moyenne, indépendamment de leur densité ou distribution géographique. Le nombre d'interactions entre les avatars et les calculs inhérents sont bornés, ce qui permet le passage à l'échelle du système.La charge est repartie sur plusieurs machines qui regroupent sur un même nœud les avatars voisins de façon contiguë dans le graphe de Delaunay. L'équilibrage de la charge se fait de manière contiguë et dynamique, en suivant la philosophie des réseaux pair-à-pair (peer-to-peer overlays). Cependant ce principe est adapté au contexte de l'informatique dématérialisée (cloud computing).Le nombre optimal d'avatars par CPU et les performances de notre système ont été évalués en simulant des dizaines de milliers d'avatars connectés à la même instance de Kiwano tournant à travers plusieurs centres de traitement de données.Nous proposons également trois applications concrètes qui utilisent Kiwano : Manycraft est une architecture distribuée capable de supporter un nombre arbitrairement grand d'utilisateurs cohabitant dans le même espace Minecraft, OneSim, qui permet à un nombre illimité d'usagers d'être ensemble dans la même région de Second Life et HybridEarth, un monde en réalité mixte où avatars et personnes physiques sont présents et interagissent dans un même espace: la Terre
Virtual worlds attract millions of users and these popular applications --supported by gigantic data centers with myriads of processors-- are routinely accessed. However, surprisingly, virtual worlds are still unable to host simultaneously more than a few hundred users in the same contiguous space.The main contribution of the thesis is Kiwano, a distributed system enabling an unlimited number of avatars to simultaneously evolve and interact in a contiguous virtual space. In Kiwano we employ the Delaunay triangulation to provide each avatar with a constant number of neighbors independently of their density or distribution. The avatar-to-avatar interactions and related computations are then bounded, allowing the system to scale. The load is constantly balanced among Kiwano's nodes which adapt and take in charge sets of avatars according to their geographic proximity. The optimal number of avatars per CPU and the performances of our system have been evaluated simulating tens of thousands of avatars connecting to a Kiwano instance running across several data centers, with results well beyond the current state-of-the-art.We also propose Kwery, a distributed spatial index capable to scale dynamic objects of virtual worlds. Kwery performs efficient reverse geolocation queries on large numbers of moving objects updating their position at arbitrary high frequencies. We use a distributed spatial index on top of a self-adaptive tree structure. Each node of the system hosts and answers queries on a group of objects in a zone, which is the minimal axis-aligned rectangle. They are chosen based on their proximity and the load of the node. Spatial queries are then answered only by the nodes with meaningful zones, that is, where the node's zone intersects the query zone.Kiwano has been successfully implemented for HybridEarth, a mixed reality world, Manycraft, our scalable multiplayer Minecraft map, and discussed for OneSim, a distributed Second Life architecture. By handling avatars separately, we show interoperability between these virtual worlds.With Kiwano and Kwery we provide the first massively distributed and self-adaptive solutions for virtual worlds suitable to run in the cloud. The results, in terms of number of avatars per CPU, exceed by orders of magnitude the performances of current state-of-the-art implementations. This indicates Kiwano to be a cost effective solution for the industry. The open API for our first implementation is available at \url{http://kiwano.li}
Style APA, Harvard, Vancouver, ISO itp.
20

Ropars, Thomas. "Services et protocoles pour l'exécution fiable d'applications distribuées dans les grilles de calcul". Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00456490.

Pełny tekst źródła
Streszczenie:
Une grille de calcul regroupe un très grand nombre de ressources de calcul hétérogènes, pouvant appartenir à différents domaines d'administration. Les grille sont attractives car elles peuvent fournir à leurs utilisateurs les ressources nécessaires à l'exécution d'applications de calcul scientifique. Cependant exécuter une application sur la grille est une tâche difficile car la fréquence des défaillances matérielles y est élevés. Pour assurer l'exécution fiable d'applications distribuées dans les grilles de calcul, nous proposons tout d'abord un service de recouvrement arrière assurant le redémarrage automatique des applications défaillantes. Nous proposons ensuite une solution assurant la haute disponibilité et l'auto-réparation de services de grille. Enfin nous proposons un protocole de recouvrement arrière pour application à échange de messages passant à l'échelle.
Style APA, Harvard, Vancouver, ISO itp.
21

Chaintreau, Augustin. "Processus d'interaction dans les réseaux de données". Paris 6, 2006. http://www.theses.fr/2006PA066601.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
22

Abboud, Khodor. "Conception et évaluation d'un modèle adaptatif pour la qualité de service dans les réseaux MPLS". Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00590422.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail de thèse dans un premier temps est l'évaluation de performances des modèles de routage multi-chemins pour l'ingénierie de trafic et l'équilibrage de charge sur un réseau de type IP/MPLS (MPLS-TE). Nous comparons la capacité de ces modèles à équilibrer la charge du réseau tout en faisant de la différentiation de trafic. Nous les appliquons sur des grandes topologies générées par le générateur automatique des topologies BRITE, qui s'approchent en forme et en complexité du réseau réel. Nous mesurons ainsi l'impact de leur complexité respective et donc la capacité à les déployer sur des réseaux de grande taille (scalabilité). Dans un second temps, l'objectif est de proposer un concept de modélisation générale d'un réseau à commutations par paquets. Ce modèle est établi sur la base de la théorie différentielle de trafic et la théorie des files d'attente, tout en utilisant des approches graphiques. Le but est d'estimer l'état de charge du réseau et de ses composants (routeurs, liens, chemins). Ensuite, en fonction de ça, nous développons des approches de contrôle de congestion et commande sur l'entrée améliorant les techniques de routage adaptatif et l'équilibrage de charge dans les réseaux IP/MPLS
Style APA, Harvard, Vancouver, ISO itp.
23

Letort, Arnaud. "Passage à l'échelle pour les contraintes d'ordonnancement multi-ressources". Phd thesis, Ecole des Mines de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-00932215.

Pełny tekst źródła
Streszczenie:
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d'origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d'ordonnancement cumulatif. Un problème d'ordonnancement consiste à déterminer les dates de débuts et de fins d'un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l'on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l'on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l'aide d'algorithmes dédiés et de métaheuristiques. Par exemple, l'utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d'ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l'idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d'accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appelées à chaque nœud de l'arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d'un million de tâches et 64 ressources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes déplacement et d'ordonnancement.Mots-clés : Programmation par contraintes, ordonnancement, cumulatif, passage à l'échelle, point fixe, contraintes de ressources multidimensionelles, balayage synchronisé.
Style APA, Harvard, Vancouver, ISO itp.
24

Golenetskaya, Natalia. "Adresser les défis de passage à l'échelle en génomique comparée". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00859439.

Pełny tekst źródła
Streszczenie:
La génomique comparée est essentiellement une forme de fouille de données dans des grandes collections de relations n-aires. La croissance du nombre de génomes sequencés créé un stress sur la génomique comparée qui croit, au pire géométriquement, avec la croissance en données de séquence. Aujourd'hui même des laboratoires de taille modeste obtient, de façon routine, plusieurs génomes à la fois - et comme des grands consortia attend de pouvoir réaliser des analyses tout-contre-tout dans le cadre de ses stratégies multi-génomes. Afin d'adresser les besoins à tous niveaux il est nécessaire de repenser les cadres algorithmiques et les technologies de stockage de données utilisés pour la génomique comparée. Pour répondre à ces défis de mise à l'échelle, dans cette thèse nous développons des méthodes originales basées sur les technologies NoSQL et MapReduce. À partir d'une caractérisation des sorts de données utilisés en génomique comparée et d'une étude des utilisations typiques, nous définissons un formalisme pour le Big Data en génomique, l'implémentons dans la plateforme NoSQL Cassandra, et évaluons sa performance. Ensuite, à partir de deux analyses globales très différentes en génomique comparée, nous définissons deux stratégies pour adapter ces applications au paradigme MapReduce et dérivons de nouveaux algorithmes. Pour le premier, l'identification d'événements de fusion et de fission de gènes au sein d'une phylogénie, nous reformulons le problème sous forme d'un parcours en parallèle borné qui évite la latence d'algorithmes de graphe. Pour le second, le clustering consensus utilisé pour identifier des familles de protéines, nous définissons une procédure d'échantillonnage itérative qui converge rapidement vers le résultat global voulu. Pour chacun de ces deux algorithmes, nous l'implémentons dans la plateforme MapReduce Hadoop, et évaluons leurs performances. Cette performance est compétitive et passe à l'échelle beaucoup mieux que les algorithmes existants, mais exige un effort particulier (et futur) pour inventer les algorithmes spécifiques.
Style APA, Harvard, Vancouver, ISO itp.
25

Schulbaum, Laurent. "Traduction des surfaces stratigraphiques et des géométries deltaïques lors du passage de l'échelle puits à l'échelle sismique". Nancy 1, 1996. http://www.theses.fr/1996NAN10328.

Pełny tekst źródła
Streszczenie:
La géométrie des dépôts est charpentée par un ensemble de surfaces stratigraphiques dont les principales sont: les surfaces de transgression, les surfaces d'inondation maximum et les surfaces de régression brutale. Elles sont repérées et hiérarchisées en surfaces majeures et mineures, à partir de l'observation du motif d'empilement des faciès sédimentaires. L'enregistrement physique de ces surfaces géologiques, par les outils d'analyse (diagraphies et sismique), est encore mal compris. En effet, l'observation sur carottes, la mesure diagraphique et la sismique, n'appréhendent pas l'objet géologique de la même manière. Le passage du puits (carottes et diagraphies) à la sismique (sismique réflexion) implique, de façon inhérente, un changement d'échelle d'observation ou d'enregistrement. On passe donc d'une stratigraphie séquentielle haute-résolution (métrique à plurimétrique) à une stratigraphie séquentielle s. L. (décamétrique à pluridécamétrique) ou stratigraphie sismique. La démarche développée ici, est une approche intégrée de la géologie, qui tente d'établir un pont entre sédimentologie et géophysique. La liaison entre les données de puits et les données sismiques est assurée par les diagraphies. Pour ce faire, on procède selon les étapes suivantes: => La construction du schéma géologique 20 : - les diagraphies sont d'abord corrigées des effets d'environnement du forage - un modèle de faciès diagraphiques est établi sur un intervalle carotté et interprété en milieux de dépôt. Ce modèle est mis en correspondance avec le modèle de faciès sédimentaires pour calibrer la réponse diagraphique - le modèle dia graphique, alors validé, est projeté sur les zones non carottées - à partir de l'analyse séquentielle 10 des puits, les surfaces stratigraphiques sont identifiées et hiérarchisées, pour la construction du schéma de corrélation 20. => La modélisation sismique: - le schéma géologique est alors traduit en termes d'impédance, paramètre qui contrôle la propagation des ondes (soniques et sismiques). L'impédance correspond au produit de la densité par la vitesse sonique. Il convient donc de corriger encore plus finement ces diagraphies - la simulation sismique 10 (convolution par un signal) et 2D (équation d'ondes) permet de traduire le modèle en impédance (en profondeur) en une image sismique synthétique (en temps), comparable à la sismique réelle. La démarche est appliquée au champ "onshore" d'Erema, dans le delta du Niger (fig. 2). Les réservoirs étudiés sont argilo-gréseux et appartiennent à la Formation Agbada, d'âge Miocène. Le piège est de nature structural, il est associé à un anticlinal de type "roll-over", visible sur section sismique. L'objectif est donc de caractériser la réponse sismique des surfaces et corps géologiques. Il s'avère que les réflecteurs sismiques ne sont pas toujours là où on les attend, par le fait même du changement d'échelle. De plus, il peut se produire des phénomènes autres que la pure réflexion, d'énergie équivalente, appelés diffusion d'interface.
Style APA, Harvard, Vancouver, ISO itp.
26

Guitton, Alexandre. "Communications multicast : contributions aux réseaux optiques et au passage à l'échelle". Rennes 1, 2005. https://hal-clermont-univ.archives-ouvertes.fr/tel-01448117.

Pełny tekst źródła
Streszczenie:
La croissance rapide des réseaux de télécommunications nécessite une évolution importante des protocoles de routage. En effet, de nouveaux protocoles doivent être développés pour supporter les nouveaux types de réseaux et les nouveaux types de communications. Dans cette thèse, nous étudions un nouveau paradigme de communications : les communications de groupe dites " multicast ". Dans un premier temps, nous considérons le cas particulier des réseaux tout optique. Ces réseaux fournissent un service de haute qualité mais possèdent de nombreuses spécificités, telles que l'incapacité de certains routeurs à dupliquer les signaux, qu'il est nécessaire de prendre en compte pour réaliser un routage efficace. Dans un second temps, nous proposons des mécanismes permettant le déploiement à grande échelle des communications multicast. Nous étudions les protocoles destinés exclusivement aux petits groupes ainsi que les protocoles agrégeant plusieurs communications entre elles.
Style APA, Harvard, Vancouver, ISO itp.
27

Couteyen, Carpaye Jean Marie. "Contribution à la parallélisation et au passage à l'échelle du code FLUSEPA". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0073/document.

Pełny tekst źródła
Streszczenie:
Les satellites sont mis en orbite en utilisant des lanceurs dont la conception est une des activités principales d’Airbus Defence and Space. Pour ce faire, se baser sur des expériences n’est pas facile : les souffleries ne permettent pas d’évaluer toutes les situations auxquelles un lanceur est confronté au cours de sa mission. La simulation numérique est donc essentielle pour l’industrie spatiale. Afin de disposer de simulations toujours plus fidèles, il est nécessaire d’utiliser des supercalculateurs de plus en plus puissants. Cependant, ces machines voient leur complexité augmenter et pour pouvoir exploiter leur plein potentiel, il est nécessaire d’adapter les codes existants. Désormais, il semble essentiel de passer par des couches d’abstraction afin d’assurer une bonne portabilité des performances. ADS a développé depuis plus de 20 ans le code FLUSEPA qui est utilisé pour le calcul de phénomènes instationnaires comme les calculs d’onde de souffle au décollage ou les séparations d’étages. Le solveur aérodynamique est basé sur une formulation volume fini et une technique d’intégration temporelle adaptative. Les corps en mouvement sont pris en compte via l’utilisation de plusieurs maillages qui sont combinés par intersections.Cette thèse porte sur la parallélisation du code FLUSEPA. Au début de la thèse, la seule version parallèle disponible était en mémoire partagée. Une première version parallèle en mémoire distribuée a d’abord été réalisée. Les gains en performance de cette version ont été évalués via l’utilisation de deux cas tests industriels. Un démonstrateur du solveur aérodynamique utilisant la programmation par tâche au dessus d’un runtime a aussi été réalisé
There are different kinds of satellites that offer different services like communication, navigationor observation. They are put into orbit through the use of launchers whose design is oneof the main activities of Airbus Defence and Space. Relying on experiments is not easy : windtunnel cannot be used to evaluate every critical situation that a launcher will face during itsmission. Numerical simulation is therefore mandatory for spatial industry.In order to have more reliable simulations, more computational power is needed and supercomputersare used. Those supercomputers become more and more complex and this impliesto adapt existing codes to make them run efficiently. Nowadays, it seems important to rely onabstractions in order to ensure a good portability of performance. Airbus Defence and Spacedeveloped for more than 20 years the FLUSEPA code which is used to compute unsteady phenomenalike take-off blast wave or stage separation. The aerodynamic solver relies on a finitevolume formulation and an explicit temporal adaptive solver. Bodies in relative motion are takeninto account through the use of multiple meshes that are overlapped.This thesis is about the parallelization of the FLUSEPA code. At the start of the thesis,the only parallel version available was in shared memory through OpenMP. A first distributedmemory version was realized and relies on MPI and OpenMP. The performance improvementof this version was evaluated on two industrial test cases. A task-based demonstrator of theaerodynamic solver was also realized over a runtime system
Style APA, Harvard, Vancouver, ISO itp.
28

Gorisse, David. "Passage à l'échelle des méthodes de recherche sémantique dans les grandes bases d'images". Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00560796.

Pełny tekst źródła
Streszczenie:
Avec la révolution numérique de cette dernière décennie, la quantité de photos numériques mise à disposition de chacun augmente plus rapidement que la capacité de traitement des ordinateurs. Les outils de recherche actuels ont été conçus pour traiter de faibles volumes de données. Leur complexité ne permet généralement pas d'effectuer des recherches dans des corpus de grande taille avec des temps de calculs acceptables pour les utilisateurs. Dans cette thèse, nous proposons des solutions pour passer à l'échelle les moteurs de recherche d'images par le contenu. Dans un premier temps, nous avons considéré les moteurs de recherche automatique traitant des images indexées sous la forme d'histogrammes globaux. Le passage à l'échelle de ces systèmes est obtenu avec l'introduction d'une nouvelle structure d'index adaptée à ce contexte qui nous permet d'effectuer des recherches de plus proches voisins approximées mais plus efficaces. Dans un second temps, nous nous sommes intéressés à des moteurs plus sophistiqués permettant d'améliorer la qualité de recherche en travaillant avec des index locaux tels que les points d'intérêt. Dans un dernier temps, nous avons proposé une stratégie pour réduire la complexité de calcul des moteurs de recherche interactifs. Ces moteurs permettent d'améliorer les résultats en utilisant des annotations que les utilisateurs fournissent au système lors des sessions de recherche. Notre stratégie permet de sélectionner rapidement les images les plus pertinentes à annoter en optimisant une méthode d'apprentissage actif.
Style APA, Harvard, Vancouver, ISO itp.
29

Imafouo, Amélie. "Etude de l'influence du passage à l'échelle sur les modèles de recherche d'information". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00785157.

Pełny tekst źródła
Streszczenie:
Les évolutions technologiques de ces dernières années ont entraîné une croissance exponentielle de la quantité d'information numérique disponible. La Recherche d'Information, discipline dont le cœur de métier est la manipulation de cette information est questionnée par cette croissance rapide. Les travaux présentés dans cette thèse se sont penchés sur le problème de l'influence du passage à l'échelle sur les performances des modèles de Recherche d'Information. Après un tour des travaux du domaine qui prennent en compte le passage à l'échelle, des méthodologies pour construire des espaces de recherche de tailles croissantes et dont le contenu est contrôlé sont proposées dans un premier temps; ces espaces de recherches sont utilisés pour observer les performances de divers modèles de RI en fonction de la taille des données manipulées. Dans un second temps, les travaux portent sur la proposition de métriques prenant en compte plusieurs niveaux de pertinence pour un document; la notion d'importance d'un niveau de pertinence est formalisée et la notion de gain d'information entre deux niveaux de pertinence est introduite. Ces deux notions permettent de fournir des métriques dédiées à analyser la capacité des systèmes de RI à retourner des documents en fonction de leur niveau de pertinence, au fur et à mesure que la taille de l'espace de recherche augmente.
Style APA, Harvard, Vancouver, ISO itp.
30

Adjiman, Philippe. "Raisonnement pair-à-pair en logique propositionnelle : algorithmes, passage à l'échelle et applications". Paris 11, 2006. http://www.theses.fr/2006PA112128.

Pełny tekst źródła
Streszczenie:
Dans un système d'inférence pair-à-pair, chaque pair peut raisonner localement mais peut également solliciter son voisinage constitué des pairs avec lesquels il partage une partie de son vocabulaire. Une caractéristique importante des systèmes d'inférence pair-à-pair est que la théorie globale (l'union des théories de tous les pairs) n'est pas connue. La première contribution majeure de cette thèse est de proposer le premier algorithme de calcul de conséquence dans un environnement pair-à-pair : DeCA. L'algorithme calcul les conséquences graduellement en partant des pairs sollicités jusqu'aux pairs de plus en plus distant. On fournit une condition suffisante sur le graphe de voisinage du système d'inférence pair-à-pair, garantissant la complétude de l'algorithme. Une autre contribution importante est l'application de ce cadre général de raisonnement distribué au contexte du web sémantique à travers les systèmes de gestion de données pair-à-pair SomeOWL et SomeRDFS. Ces systèmes permettent à chaque pair d'annoter (de catégoriser) ses données à l'aide d'ontologies simples et d'établir des liens sémantique, appelés " mappings ", entre son ontologie et celle de ses voisins. Les modèles de donnée de SomeOWL et SomeRDFS sont respectivement fondés sur les deux recommandations récentes du W3C pour le web sémantique : OWL et RDF(S). La dernière contribution de cette thèse est de fournir une étude expérimentale poussée du passage à l'échelle de l'infrastructure pair-à-pair que nous proposons, et ce sur des réseaux allant jusqu'à 1000 pairs
In a peer-to-peer inference system, each peer can reason locally but can also solicit some of its acquaintances, which are peers sharing part of its vocabulary. In this thesis, we consider peer-to-peer inference systems in which the local theory of each peer is a set of propositional clauses defined upon a local vocabulary. An important characteristic of peer-to-peer inference systems is that the global theory (the union of all peer theories) is not known. The first main contribution of this thesis is to provide the first consequence finding algorithm in a peer-to-peer setting: DeCA. It is anytime and computes consequences gradually from the solicited peer to peers that are more and more distant. We exhibit a sufficient condition on the acquaintance graph of the peer-to-peer inference system for guaranteeing the completeness of this algorithm. Another important contribution is to apply this general distributed reasoning setting to the setting of the Semantic Web through the SomeOWL and SomeRDFS peer-to-peer data management systems. Those systems allow each peer to annotate (categorize) its data using simple ontologies and to establish mappings with ontologies of its acquaintances. SomeOWL and SomeRDFS data models are respectively based on the two emerging W3C recommendations for the semantic web, namely OWL and RDF(S). The last contribution of this thesis is to provide an extensive experimental analysis of the scalability of the peer-to-peer infrastructure that we propose, on large networks of 1000 peers
Style APA, Harvard, Vancouver, ISO itp.
31

Siria, Alessandro. "Systèmes nano électro mécanique et intéractions à l'échelle nanométrique". Grenoble 1, 2009. http://www.theses.fr/2009GRE10264.

Pełny tekst źródła
Streszczenie:
Les Micro et Nano Electro Mechanical Systems (MEMS et NEMS) font partie des meilleurs candidats pour les mesures d'intéractions à l'échelle nanométrique. La résolution en force de l'ordre de l'attonewton a été exploitée avec succès aussi bien pour mesurer le poids de molécules uniques que pour la mesure du spin d'un électron unique. Les NEMS et les MEMS sont généralement des systèmes fabriqués à partir de composants sub-microniques l'un en face de l'autre. Lorsque leur distance atteint l'échelle sub-micronique, phénomenes généralement négligés, doivent être pris en compte lors d'applications microscopiques. Les intéractions mécaniques entre deux surfaces séparées de moins d'un micron sont régies par des forces qui, dans des systèmes macroscopiques, sont souvent négligeables. Dans ce travail de thèse, nous étudions les forces d'intéraction entre surfaces séparées par une distance allant de quelques nanomètres à plusieurs micromètres. Premierement nous traiterons du problème des forces hydrodynamiques agissant sur des micro-structures oscillantes en environnement visqueux. Nous montrerons que l'effet d'amortissement d'un fluide confiné dépend de la taille du confinement. Nous étudierons comment cet effet de confinement peut modifier les propriétés de cet oscillateur mécanique. Dans un second temps nous poserons le probleme des forces optiques agissant sur les micro-oscillateurs mécaniques. Par l'utilisation de l'absorption et de la diffraction des faisceaux de rayons X nous verrons que les effets habituellement observés en lumière visible le sont aussi par rayons X. Nous montrerons que les MEMS et potentiellement les NEMS sont des systèmes adéquats pour le développement de nouveaux outils pour les techniques de la lumiere Synchrotron. Enfin nous étudierons la radiation thermique entre deux surfaces à une distance micronique et sub-micronique où la contribution des composantes champs proche ne peuvent plus être negligées. Nous présenterons les mesures de radiation thermique entre deux surfaces de verres amenant une comparaison avec la theorie de la radiation thermique basee sur l'électrodynamique stochastique
Micro and Nano Electro Mechanical Systems (MEMS and NEMS) are among the best candidates for the measurement of interactions at the nanoscale. Resolution in force in the range of attonewton has been successfully exploited for the weighting of single molecules or the measurement of the spin of a single electron. NEMS and MEMS are generally mechanical devices made from submicron components facing each other. When the distance between the components reaches the sub-micron scale, phenomena generally neglected during macroscopic applications have to be taken into account. For example, the interaction mechanisms between the two surfaces moving at sub-micron separations are mediated by forces that, in macroscopic devices, are often irrelevant. In this thesis work we study interaction forces between surfaces when the the gap separating them is in the range from tens of nanometers up to several micrometers. First we address the problem of hydrodynamic forces acting on micro-structures oscillating in viscous environment. We show that the effect damping of a confined fluid is depending by the gap size of the confinement cavity. We study how this confinement effect can modify the properties of the mechanical oscillator. Second we address the problem of optical forces acting on micro mechanical oscillators. Using absorption and diffraction of X-ray beams we will see that effects usually observed using visible light can also be observed using X-rays. We show that Micro and possibly Nano Electro Mechanical System can be suitable for developing new tools in the domain of Synchrotron light techniques. Finally we study the thermal radiation between surfaces when the gap is the micron and sub-micron scale where the contribution of near field components cannot be neglected. We show measurement of thermal radiation between surfaces of glass providing a comparison with the theory of thermal radiation based on stochastic electrodynamics
Style APA, Harvard, Vancouver, ISO itp.
32

Roux, Denis. "Rhéologie : de l'échelle nano-métrique l'échelle macroscopique". Habilitation à diriger des recherches, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00626610.

Pełny tekst źródła
Streszczenie:
Ce mémoire retrace mes activités de recherche aussi bien universitaire qu'industrielle. Il constitue un aperçu des différents sujets de recherche sur lesquels je me suis penché. Mais avant d'aborder la description du manuscrit, je souhaite faire un petit écart sur une question qui me semble importante. Je me souviens que lorsque j'étais en thèse Jean-François Berret me demandait souvent : "Mais quel est la problématique ?". Cette question est le quotidien du chercheur. Elle lui permet de se pencher sur un problème qu'il n'a pas choisi mais qui est venu à lui par la concomitance d'évènements professionnel et personnel. Il l'aborde dans un premier temps en s'appuyant sur ses expériences passées, ses connaissances et son sens de l'imagination. Ensuite, c'est le travail sur le sujet de recherche qui petit à petit modifie, transforme et fait évoluer les idées initiales. En piochant largement dans la littérature, le chercheur tente d'expliquer le problème, il se construit une image et se persuade de sa validité. Il se remet en cause et doit savoir écouter avant d'imposer ses idées. Il définit le domaine de validité de son problème et souhaite apporter une interprétation juste, juste dans le sens de la conformité à la norme. Cette étape franchie, il pourra alors transmettre son savoir et ainsi faire naître un sentiment de recognition indispensable à son bien être. D'une certaine façon l'habilitation à diriger des recherches est une étape permettant d'atteindre cette reconnaissance puisqu'elle marque une réflexion sur soi et ses travaux de recherche. Le mémoire que vous allez lire, parcourir ou feuilleter est découpé en quatre parties. La première n'est autre que mon curriculum vitae. Les trois autres portent sur mes travaux de recherche présentés par thématiques. La première thématique est celle que j'ai rencontrée après mon doctorat au sein du Pôle Européen de Plasturgie à Oyonnax. Cette expérience riche en évènements et en rencontres m'a fait toucher du doigt le monde industriel de la plasturgie. A Oyonnax, la vallée s'est transformée avec le temps; elle est passée successivement d'une économie d'agriculture à une économie artisanale pour ensuite se tourner à la fin du XIXième siècle vers la transformation des plastiques lors de l'apparition du celluloïd. C'est donc au sein d'un environnement marqué par le dynamisme que j'ai abordé la plasturgie. Parmi les différents sujets que j'ai eu l'occasion de traiter, j'ai volontairement restreint la présentation à l'injection des thermoplastiques en phase de remplissage d'un moule. J'ai abordé la seconde thématique de l'impact de gouttes lors de ma délégation au "particulate fluids processing centre" de l'Université de Melbourne en Australie. Ce fut encore l'occasion d'échanger et d'apprendre avec une organisation totalement différente de la France. L'objectif de la problématique était de comprendre les mécanismes intervenants lors de l'impact aux premiers instants. Pour cela, une caméra rapide pouvant filmer jusqu'à 64 000 images par seconde a été utilisée pour observer et quantifier l'impact de gouttes d'eau sur une surface solide. Mon travail à tout d'abord consisté à réaliser le banc optique de mesure. Ce dernier étant mis au point, je me suis alors transformé en un nuage d'un type un peu particulier car je ne devais faire tomber qu'une seule goutte de diamètre et de vitesse contrôlée sur une surface solide ou liquide. Enfin, la dernière thématique est celle que j'ai traitée en thèse mais aussi très récemment avec la thèse de Yann Auffret en co-tutelle avec l'Université de Melbourne. Cette partie traite de la dynamique sous écoulement des fluides visqueux et élastiques constitués par des mélanges de : tensioactifs, solvants et d'eau avec ou sans écrantage des charges. La rhéologie de ces systèmes auto-assemblés est décrite pour trois phases : une isotrope et deux de cristal liquide. Pour chaque système étudié, le comportement macroscopique a été mis en parallèle avec les échelles micro- et nano-scopiques. C'est ce que l'on appelle maintenant une étude trans-échelles. Le point commun entre les différents thèmes est de façon indéniable la rhéologie. L'écoulement est le cœur de chacun des problèmes et l'influence de l'écoulement sur les structures aux différentes échelles est dans la mesure du possible traité dans chacune des thématiques. Parfois les fluides utilisés sont Newtoniens mais le plus souvent ils sont visco-élastiques ou visco-plastiques et subissent de profondes transformations lors des écoulements. Pour finir ce mémoire, une projection des perspectives est donnée. Certaines sont à court terme d'autres à long terme et enfin d'autres sont des intentions sur mes recherches futures.
Style APA, Harvard, Vancouver, ISO itp.
33

Eeckman, Judith. "Caractérisation des systèmes hydro-climatiques à l'échelle locale dans l'Himalaya népalais". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTT103/document.

Pełny tekst źródła
Streszczenie:
La partie centrale de la chaîne himalayenne présente d’importantes hétérogénéités, en particulier en termes de topographie et de climatologie. La caractérisation des processus hydro-climatiques dans cette région est limitée par le manque de descriptif des milieux. La variabilité locale est alors difficilement représentée par les modélisations mises en œuvre à une échelle régionale.L’approche proposée dans ce travail est de caractériser les systèmes hydro-climatiques à l’échelle locale pour réduire les incertitudes liées à l’hétérogénéité du milieu. L’intégration de données localement précises est testée pour la modélisation de bassins versants peu instrumentés et fortement hétérogènes.Deux sous-bassins du bassin de la Dudh Koshi (Népal) sont utilisés comme échantillons représentatifs des milieux de haute et moyenne montagne, hors contribution glaciaire. Le schéma de surface ISBA est appliqué à la simulation des réponses hydrologiques des types de surface décrits à partir d’observations de terrain. Des mesures de propriétés physiques des sols sont intégrées pour préciser la paramétrisation des surfaces dans le modèle. Les données climatiques nécessaires sont interpolées à partir des observations in situ disponibles. Une approche non déterministe est appliquée pour quantifier les incertitudes liées à l’influence de la topographie sur les précipitations, ainsi que leur propagation aux variables simulées. Enfin, les incertitudes liées à la structure des modèles sont évaluées à l’échelle locale à travers la comparaison des paramétrisations et des résultats de simulation obtenus d'une part avec le schéma de surface ISBA, couplé à un module de routage à réservoir et d'autre part avec le modèle hydrologique J2000
The central part of the Hindukush-Himalaya region presents tremendous heterogeneity, in particular in terms of topography and climatology. The representation of hydro-climatic processes for Himalayan catchments is limited due to a lack of knowledge regarding their hydrological behavior. Local variability is thus difficult to characterize based on modeling studies done at a regional scale. The proposed approach is to characterize hydro-climatic systems at the local scale to reduce uncertainties associated with environmental heterogeneity.The integration of locally reliable data is tested to model sparsely instrumented, highly heterogeneous catchments. Two sub-catchments of the Dudh Koshi River basin (Nepal) are used as representative samples of high and mid-mountain environments, with no glacier contribution. The ISBA surface scheme is applied to simulate hydrological responses of the surfaces that are described based on in-situ observations. Measurements of physical properties of soils are integrated to precise surface parametrization in the model. Necessary climatic data is interpolated based on available in-situ measurements. A non deterministic approach is applied to quantify uncertainties associated with the effect of topography on precipitation and their propagation through the modeling chain. Finally, uncertainties associated with model structure are estimated at the local scale by comparing simulation methods and results obtained on the one hand with the ISBA model, coupled with a reservoir routing module, and on the other hand, with the J2000 hydrological model
Style APA, Harvard, Vancouver, ISO itp.
34

Kassem, Hassan. "Simulation à l'échelle atomique de systèmes hétérogènes : défauts, interdiffusion et dynamique". Toulouse 3, 2003. http://www.theses.fr/2003TOU30163.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
35

Andrieu, Pierre. "Passage à l'échelle, propriétés et qualité des algorithmes de classements consensuels pour les données biologiques massives". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG041.

Pełny tekst źródła
Streszczenie:
Les médecins et biologistes sont régulièrement amenés à interroger des bases de données biologiques publiques, par exemple lorsqu’ils se renseignent sur les gènes les plus associés à une maladie donnée. Le mot-clé choisi au moment d’interroger la base de données est particulièrement important : plusieurs reformulations synonymes d’une même maladie (par exemple « breast cancer » et « breast carcinoma ») aboutissent à des classements parfois très différents pouvant aller jusqu’à plusieurs milliers de gènes. Certains gènes, triés par pertinence, peuvent se retrouver à égalité (importance égale vis-à-vis de la maladie). De plus, certains gènes retournés en utilisant certaines reformulations peuvent être absents lorsque d’autres reformulations sont choisies. On dit alors que les classements sont incomplets et avec égalités. L’enjeu est alors de combiner l’information apportée par ces différents classements de gènes. La problématique consistant à partir d’une liste de classements et de calculer un classement dit consensuel aussi représentatif que possible des classements d’entrée est appelée « agrégation de classements ». Ce problème est connu pour être NP-difficile. Alors que la majorité des travaux considèrent les classements complets et sans égalités, nous nous sommes placés dans le contexte des classements incomplets avec égalités. Nos contributions peuvent se décomposer en trois parties. Premièrement, nous avons conçu une heuristique basée sur des graphes qui consiste à partitionner le problème de départ en sous-problèmes indépendants pour le cas où les classements sont incomplets et avec égalités. Deuxièmement, nous avons conçu un algorithme capable de déterminer des points communs entre tous les classements consensuels optimaux, permettant ainsi de fournir à l’utilisateur une indication quant à la robustesse du classement consensuel renvoyé. Une étude expérimentale sur un grand nombre de jeux de données biologiques massifs a mis en évidence la pertinence biologique des résultats fournis par nos méthodes. La dernière contribution est la suivante : les données manquantes pouvant s’interpréter de différentes façons selon le contexte, nous avons proposé un modèle paramétré permettant de prendre en compte ces différences. Nous avons conçu des algorithmes pour ce modèle et fait une étude axiomatique de ce dernier en nous basant sur la théorie du choix social
Biologists and physicians regularly query public biological databases, for example when they are looking for the most associated genes towards a given disease. The chosen keyword are particularly important: synonymous reformulations of the same disease (for example "breast cancer" and "breast carcinoma") may lead to very different rankings of (thousands of) genes. The genes, sorted by relevance, can be tied (equal importance towards the disease). Additionally, some genes returned when using a first synonym may be absent when using another synonym. The rankings are then called "incomplete rankings with ties". The challenge is to combine the information provided by these different rankings of genes. The problem of taking as input a list of rankings and returning as output a so-called consensus ranking, as close as possible to the input rankings, is called the "rank aggregation problem". This problem is known to be NP-hard. Whereas most works focus on complete rankings without ties, we considered incomplete rankings with ties. Our contributions are divided into three parts. First, we have designed a graph-based heuristic able to divide the initial problem into independent sub-problems in the context of incomplete rankings with ties. Second, we have designed an algorithm able to identify common points between all the optimal consensus rankings, allowing to provide information about the robustness of the provided consensus ranking. An experimental study on a huge number of massive biological datasets has highlighted the biological relevance of these approaches. Our last contribution the following one : we have designed a parameterized model able to consider various interpretations of missing data. We also designed several algorithms for this model and did an axiomatic study of this model, based on social choice theory
Style APA, Harvard, Vancouver, ISO itp.
36

Bilhaut, Lise. "Actionnement magnétique à l'échelle nanométrique". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00468902.

Pełny tekst źródła
Streszczenie:
Cette thèse présente un nouveau système d'actionnement à l'échelle nanométrique, basé sur l'intégration de multicouches antiferromagnétiques/ferromagnétiques avec une nano-structure mécanique. Ces multicouches, utilisées dans les mémoires magnétiques, présentent la particularité de maintenir une forte aimantation lorsqu'on en réduit les dimensions. De plus, le sens de l'aimantation de certains empilements peut être modifié grâce à un système thermoélectrique. Ce principe d'actionnement est illustré par deux dispositifs : le premier est un nano-commutateur bistable, qui met à profit les forces dipolaires qui s'exercent entre deux aimants. La bistabilité est atteinte grâce au retournement de l'aimantation d'un des deux empilements magnétiques. Le second système est un nano-résonateur, mis en mouvement par la force de Laplace. Nous détaillons les modèles théoriques développés pour dimensionner ces deux dispositifs. Nous présentons également les empilements technologiques permettant la réalisation de ces nanosystèmes intégrés à très grande échelle sur des plaques de 200 mm. Un des points originaux est l'utilisation d'un procédé de libération basé sur la gravure d'une couche sacrificielle de titane par du XeF2. Nous abordons également la problématique du changement des paramètres matériaux, notamment de la résistivité, lorsque l'on réduit les dimensions. Cela nous permet de donner une estimation de la résistance de contact du nano-commutateur. Enfin, des mesures effectuées en vibrométrie laser par effet Doppler montrent que le système d'actionnement du nano-résonateur est capable de mettre la poutre en résonance, réalisant la preuve de concept de ce type d'actionnement.
Style APA, Harvard, Vancouver, ISO itp.
37

Bilhaut, Lise. "Actionnement magnétique à l'échelle nanométrique". Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10226.

Pełny tekst źródła
Streszczenie:
Cette thèse présente un nouveau système d'actionnement à l'échelle nanométrique, basé sur l'intégration de multicouches antiferromagnétiques/ferromagnétiques avec une nano-structure mécanique. Ces multicouches, utilisées dans les mémoires magnétiques, présentent la particularité de maintenir une forte aimantation lorsqu'on en réduit les dimensions. De plus, le sens de l'aimantation de certains empilements peut être modifié grâce à un système thermoélectrique. Ce principe d'actionnement est illustré par deux dispositifs : le premier est un nano-commutateur bistable, qui met à profit les forces dipolaires qui s'exercent entre deux aimants. La bistabilité est atteinte grâce au retournement de l'aimantation d'un des deux empilements magnétiques. Le second système est un nano-résonateur, mis en mouvement par la force de Laplace. Nous détaillons les modèles théoriques développés pour dimensionner ces deux dispositifs. Nous présentons également les empilements technologiques permettant la réalisation de ces nanosystèmes intégrés à très grande échelle sur des plaques de 200 mm. Un des points originaux est l'utilisation d'un procédé de libération basé sur la gravure d'une couche sacrificielle de titane par du XeF2. Nous abordons également la problématique du changement des paramètres matériaux, notamment de la résistivité, lorsque l'on réduit les dimensions. Cela nous permet de donner une estimation de la résistance de contact du nano-commutateur. Enfin, des mesures effectuées en vibrométrie laser par effet Doppler montrent que le système d'actionnement du nano-résonateur est capable de mettre la poutre en résonance, réalisant la preuve de concept de ce type d'actionnement
This PhD thesis presents a new actuation scheme working at the nanoscale, based on the integration of an antiferromagnetic/ferromagnetic stack with a nanomechanical system. Those multilayers, inherited from spintronics and magnetic memory, have the specificity to maintain a high magnetization when decreasing their dimensions. Furthermore, the magnetization direction of some stack can be reversed thanks to a thermoelectrical system. We have illustrated this new actuation system with two devices. The first one is a nanoswitch that uses the dipolar interaction between two magnets in order to commute between two stable mechanical states. The bistability character is reached by switching the magnetization direction of one the two magnets. The second device is a nanoresonator actuated by the Lorentz force arising from the interaction between a current flowing through the mechanical system and the magnetic field of an integrated magnetic stack. This manuscript details the theoretical models established to design both devices. We present technological flow charts that allow the manufacturing of both devices in a very large scale integration on 8' wafers. One of the original steps is the release process based on a sacrificial titanium layer etched by xenon difluoride. We also deal with the change in material parameters, especially the resistivity, so we can give an estimated value for the contact resistance of a nanoswitch. Eventually, measurements made with a laser Doppler vibrometer have shown that the manufactured nanoresonator is indeed actuated by the Lorentz force, giving the proof of concept of this new actuation scheme
Style APA, Harvard, Vancouver, ISO itp.
38

Richer, Gaëlle. "Passage à l'échelle pour la visualisation interactive exploratoire de données : approches par abstraction et par déformation spatiale". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0264/document.

Pełny tekst źródła
Streszczenie:
La visualisation interactive est un outil essentiel pour l'exploration, la compréhension et l'analyse de données. L'exploration interactive efficace de jeux de données grands ou complexes présente cependant deux difficultés fondamentales. La première est visuelle et concerne les limitations de la perception et cognition humaine, ainsi que celles des écrans. La seconde est computationnelle et concerne les limitations de capacité mémoire ou de traitement des machines standards. Dans cette thèse, nous nous intéressons aux techniques de passage à l'échelle relativement à ces deux difficultés, pour plusieurs contextes d'application.Pour le passage à l'échelle visuelle, nous présentons une approche versatile de mise en évidence de sous-ensembles d'éléments par déformation spatiale appliquée aux vues multiples et une représentation abstraite et multi-/échelle de coordonnées parallèles. Sur les vues multiples, la déformation spatiale vise à remédier à la diminution de l'efficacité de la surbrillance lorsque les éléments graphiques sont de taille réduite. Sur les coordonnées parallèles, l'abstraction multi-échelle consiste à simplifier la représentation tout en permettant d'accéder interactivement au détail des données, en les pré-agrégeant à plusieurs niveaux de détail.Pour le passage à l'échelle computationnelle, nous étudions des approches de pré-calcul et de calcul à la volée sur des infrastructures distribuées permettant l'exploration de jeux de données de plus d'un milliard d'éléments en temps interactif. Nous présentons un système pour l'exploration de données multi-dimensionnelles dont les interactions et l'abstraction respectent un budget en nombre d'éléments graphiques qui, en retour, fournit une borne théorique sur les latences d'interactions dues au transfert réseau entre client et serveur. Avec le même objectif, nous comparons des stratégies de réduction de données géométrique pour la reconstruction de cartes de densité d'ensembles de points
Interactive visualization is helpful for exploring, understanding, and analyzing data. However, increasingly large and complex data challenges the efficiency of visualization systems, both visually and computationally. The visual challenge stems from human perceptual and cognitive limitations as well as screen space limitations while the computational challenge stems from the processing and memory limitations of standard computers.In this thesis, we present techniques addressing the two scalability issues for several interactive visualization applications.To address visual scalability requirements, we present a versatile spatial-distortion approach for linked emphasis on multiple views and an abstract and multi-scale representation based on parallel coordinates. Spatial distortion aims at alleviating the weakened emphasis effect of highlighting when applied to small-sized visual elements. Multiscale abstraction simplifies the representation while providing detail on demand by pre-aggregating data at several levels of detail.To address computational scalability requirements and scale data processing to billions of items in interactive times, we use pre-computation and real-time computation on a remote distributed infrastructure. We present a system for multi-/dimensional data exploration in which the interactions and abstract representation comply with a visual item budget and in return provides a guarantee on network-related interaction latencies. With the same goal, we compared several geometric reduction strategies for the reconstruction of density maps of large-scale point sets
Style APA, Harvard, Vancouver, ISO itp.
39

Dridi, Ghassen. "Contrôle quantique adiabatique : technique de passage adiabatique parallèle et systèmes dissipatifs". Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00692406.

Pełny tekst źródła
Streszczenie:
La première partie de cette thèse est consacrée à l'élaboration théorique de processus adiabatiques permettant le transfert de population entre un état initial et un état cible d'un système quantique. La stratégie du passage adiabatique parallèle pour laquelle les paramètres de couplage sont conçus de telle sorte que la différence des valeurs propres du système reste constante à chaque instant, permet de minimiser à zéro les transitions non-adiabatiques données par la formule DDP. Cette technique permet de combiner à la fois l'efficacité énergétique des méthodes impulsion-pi et la robustesse du passage adiabatique. La seconde partie de cette thèse concerne les effets de la dissipation sur le passage adiabatique. La formule de probabilité de transition d'un système à deux niveaux tenant compte des effets de la dissipation est établie. Cette formule permet de reformuler la solution générale d'un système dissipatif à deux niveaux dans la limite adiabatique qui est valable au-delà du régime de faible dissipation.
Style APA, Harvard, Vancouver, ISO itp.
40

Deloule, Etienne. "Analyses isotopiques à l'échelle intra-cristalline : une contribution à l'étude des systèmes géologiques". Vandoeuvre-les-Nancy, INPL, 1991. http://docnum.univ-lorraine.fr/public/INPL_T_1991_DELOULE_E.pdf.

Pełny tekst źródła
Streszczenie:
La composition isotopique du Plomb a été mesurée sur des lessivages progressifs des minéraux de sulfures des gisements métallifères de la ceinture archéenne de l'Abitibi (Québec). La signature isotopique des gisements en milieu sédimentaire montre que les métaux proviennent d'une croute continentale antérieure à la ceinture de roches vertes, âgée de 2,7 milliards d'années. Les minéralisations associées au volcanisme résultent d'un mélange entre cette source crustale et une source mantellique. L'analyse isotopique à la sonde ionique du plomb et du soufre des galènes de Tristate et du Viburnum trend (Mississippi Valley) met en évidence des variations à courte échelle (100 micromètres) pour ces deux éléments. L'absence de corrélations entre les deux éléments montre l'existence de plusieurs sources de compositions isotopiques différentes et une croissance épisodique. Ces zonations suggèrent que les solutions hydrothermales à l'origine des gisements ont circule dans des fractures avec des débits importants. La modélisation numérique montre que ce type de circulation joue vraisemblablement un rôle important pour la mise en place des gisements du type de la vallée du Missouri. La calibration de la mesure isotopique de l'hydrogène par sonde ionique permet l'analyse de quelques nanogrammes d'échantillons, avec une précision meilleur que 10 %, quand les méthodes classiques en requièrent des milligrammes. L'analyse d'amphiboles dans des xénolites mantelliques équilibres à haute température et haute pression montre des zonations isotopiques importantes à l'échelle du minéral, jusqu'a 60% sur une échelle intra-millimétrique, pour des parasites d'Hawaii et du massif central. Ceci implique la présence d'hétérogénéités isotopiques importantes dans le manteau et une relation temporelle étroite entre les échanges d'hydrogène minéraux phases fluides et le volcanisme qui entraine les xénolites
Style APA, Harvard, Vancouver, ISO itp.
41

Moreno, Barbosa Andrés Dario. "Passage à l’échelle des systèmes de recommandation avec respect de la vie privée". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4128/document.

Pełny tekst źródła
Streszczenie:
L'objectif principal de la thèse est de proposer une méthode de recommandation prenant en compte la vie privée des utilisateurs ainsi que l'évolutivité du système. Pour atteindre cet objectif, une technique hybride basée sur le filtrage par contenu et le filtrage collaboratif est utilisée pour atteindre un modèle précis de recommandation, sous la pression des mécanismes visant à maintenir la vie privée des utilisateurs. Les contributions de la thèse sont trois : Tout d'abord, un modèle de filtrage collaboratif est défini en utilisant agent côté client qui interagit avec l'information sur les éléments, cette information est stockée du côté du système de recommandation. Ce modèle est augmenté d’un modèle hybride qui comprend une stratégie basée sur le filtrage par contenu. En utilisant un modèle de la connaissance basée sur des mots clés qui décrivent le domaine de l'article filtré, l'approche hybride augmente la performance de prédiction des modèles sans élever l’effort de calcul, dans un scenario du réglage de démarrage à froid. Finalement, certaines stratégies pour améliorer la protection de la vie privée du système de recommandation sont introduites : la génération de bruit aléatoire est utilisée pour limiter les conséquences éventuelles d'une attaque lorsque l'on observe en permanence l'interaction entre l'agent côté client et le serveur, et une stratégie basée sur la liste noire est utilisée pour s’abstenir de révéler au serveur des interactions avec des articles que l'utilisateur considère comme pouvant transgresser sa vie privée. L'utilisation du modèle hybride atténue l'impact négatif que ces stratégies provoquent sur la performance prédictive des recommandations
The main objective of this thesis is to propose a recommendation method that keeps in mind the privacy of users as well as the scalability of the system. To achieve this goal, an hybrid technique using content-based and collaborative filtering paradigms is used in order to attain an accurate model for recommendation, under the strain of mechanisms designed to keep user privacy, particularly designed to reduce the user exposure risk. The thesis contributions are threefold : First, a Collaborative Filtering model is defined by using client-side agent that interacts with public information about items kept on the recommender system side. Later, this model is extended into an hybrid approach for recommendation that includes a content-based strategy for content recommendation. Using a knowledge model based on keywords that describe the item domain, the hybrid approach increases the predictive performance of the models without much computational effort on the cold-start setting. Finally, some strategies to improve the recommender system's provided privacy are introduced: Random noise generation is used to limit the possible inferences an attacker can make when continually observing the interaction between the client-side agent and the server, and a blacklisted strategy is used to refrain the server from learning interactions that the user considers violate her privacy. The use of the hybrid model mitigates the negative impact these strategies cause on the predictive performance of the recommendations
Style APA, Harvard, Vancouver, ISO itp.
42

Heron, Jean-Savin. "Transport des phonons à l'échelle du nanomètre". Phd thesis, Grenoble 1, 2009. http://tel.archives-ouvertes.fr/tel-00461703.

Pełny tekst źródła
Streszczenie:
Pour comprendre les mécanismes du transport de la chaleur à l'échelle du nanomètre, nous avons fabriqué des dispositifs suspendus nanostructurés complexes et mesuré leur conductance thermique aux températures cryogéniques, notamment via la méthode 3 oméga. Nous avons pu ainsi démontrer la dépendance du transport des phonons aux dimensions et à la géométrie des nanostructures. Pour des nanofils de silicium d'une longueur comprise entre 8 et 10 µm, et d'une section de 200x100 nm^2, nous observons une déviation au régime diffusif de Casimir sous 5K, que nous pouvons expliquer en tenant compte de la rugosité en surface des nanofils. Quand la température décroit, la longueur d'onde des phonons augmente et des collisions balistiques en surface surviennent, impliquant une augmentation du libre parcours moyen des phonons, considéré comme constant jusque là. D'importants effets mésoscopiques sur le transport des phonons induits par la géométrie des nanofils ont pu être mesurés pour la première fois. La présence de zig-zag sur la longueur des fils bloquent le courant de phonons sur une large gamme de température, ayant pour conséquence une importante réduction de l'ordre de 40% de la conductance thermique en comparaison avec des nanofils droits. En parallèle, des expériences ont été menées sur des NEMS de silicium à basse température, et comparées avec des résultats antérieurs sur des MEMS de même géométrie. Le comportement mécanique des structures de silicium aux petites échelles est également abordé. A la fin de ce manuscrit, sont présentés les premiers prototypes de nano-calorimètres zepto-Joules (10^-21 J), qui vont permettre des caractérisations thermiques extrêmes d'objets uniques mésoscopiques.
Style APA, Harvard, Vancouver, ISO itp.
43

Heron, Jean-Savin. "Transport des phonons à l'échelle du nanomètre". Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10183.

Pełny tekst źródła
Streszczenie:
Pour comprendre les mécanismes du transport de la chaleur à l'échelle du nanomètre, nous avons fabriqué des dispositifs suspendus nanostructurés complexes et mesuré leur conductance thermique aux températures cryogéniques, notamment via la méthode 3 oméga. Nous avons pu ainsi démontrer la dépendance du transport des phonons aux dimensions et à la géométrie des nanostructures. Pour des nanofils de silicium d'une longueur comprise entre 8 et 10 µm, et d'une section de 200x100 nm^2, nous observons une déviation au régime diffusif de Casimir sous 5K, que nous pouvons expliquer en tenant compte de la rugosité en surface des nanofils. Quand la température décroit, la longueur d'onde des phonons augmente et des collisions balistiques en surface surviennent, impliquant une augmentation du libre parcours moyen des phonons, considéré comme constant jusque là. D'importants effets mésoscopiques sur le transport des phonons induits par la géométrie des nanofils ont pu être mesurés pour la première fois. La présence de zig-zag sur la longueur des fils bloquent le courant de phonons sur une large gamme de température, ayant pour conséquence une importante réduction de l'ordre de 40% de la conductance thermique en comparaison avec des nanofils droits. En parallèle, des expériences ont été menées sur des NEMS de silicium à basse température, et comparées avec des résultats antérieurs sur des MEMS de même géométrie. Le comportement mécanique des structures de silicium aux petites échelles est également abordé. A la fin de ce manuscrit, sont présentés les premiers prototypes de nano-calorimètres zepto-Joules (10^-21 J), qui vont permettre des caractérisations thermiques extrêmes d'objets uniques mésoscopiques
To understand the mechanisms of the heat transport at small length scales, we are fabricating complex nano-devices and measuring the thermal conductance of suspended silicon nanowires at cryogenic temperatures, principally by the 3 omega method. We demonstrate the dependance of the phonon transport to the dimensions and the geometry of these nanostructures. For nanowires with a length between 8 and 10 µm, and a section of 200x100 nm^2, we observe a deviation of the diffusive regime of Casimir below 5K, which can be explained by taking account the roughness of the surface of the nanowires. When the temperature decreases, the wave length of the phonons increases and ballistic collisions at the surface occur, implying an increase of the mean free path of the phonons, considered before as constant. Important mesoscopic effects on the phonons transport induced by the geometry of the nanowires have been measured for the first time. The presence of zigzag on the length of the wires blocks the current of phonons on a wide range of temperature, with as consequence an important decrease in the order of 40 % of the thermal conductance in comparison with straight nanowires. Experiments in parrallel on silcon NEMS have been performed at low temperatures, and compared with MEMS of same geometries. The mechanical behavior of silcon nanostructures at low scale is also aborded. At the end, first prototypes of zeptoJoules nanocalorimeters (10^-21 J) are presented, which allow thermal characterization of single mesoscopic object
Style APA, Harvard, Vancouver, ISO itp.
44

Moraine, Marc. "Conception et évaluation de systèmes de production intégrant culture et élevage à l'échelle du territoire". Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0050/document.

Pełny tekst źródła
Streszczenie:
L’intégration culture – élevage à l’échelle territoire représente une voie pour améliorer le fonctionnement métabolique et les services écosystémiques fournis par les systèmes agricoles, malgré les contraintes de spécialisation des exploitations. Cette thèse propose une méthodologie de conception de systèmes culture – élevage au niveau du territoire, dans une démarche participative structurée en trois grandes étapes : diagnostic des enjeux, conception d’options techniques et organisationnelles, évaluation multicritère. Chaque étape est outillée par un cadre conceptuel et une grille d’évaluation multicritère adaptée aux dispositifs de terrain menés sur le bassin versant de l’Aveyron. Les scénarios construits présentent deux modèles de l’intégration culture – élevage : une « filière territorialisée » pour la production de luzerne dans les systèmes de culture de l’aval du bassin à destination des élevages de l’amont, un « collectif d’agriculteurs bio » échangeant directement de la luzerne, des méteils et du fumier dans des groupes locaux. Chaque scénario présente des performances de durabilité améliorées et pourraient être complémentaires pour le changement de pratiques sur le territoire. La méthodologie développée permet la conception multi-niveaux et multi-domaines de scénarios d’intégration, et pourrait être renforcée par une évaluation quantitative des bénéfices attendus et des coûts de coordination entre acteurs
Crop-livestock integration at territory level may be a pathway to impove metabolic functions and delivery of ecosystem services in agricultural systems, overcoming the constraints of farm specialization. This thesis builds on a methodology of participatory design of integrated crop-livestock systems at territory level in three steps: diagnosis of issues, design of technical and organizational options for change, multicriteria assessment. Each step is supported with a conceptual framework and a multicriteria grid adapted to the case study in Aveyron river basin. The designed scenarios show two approaches of crop –livestock integration: the introduction of alfalfa in downstream cropping systems sold to upstream livestock systems through a local supply chain and the direct exchanges of alfalfa, cereal-legume mixtures and animal manure in local groups of organic farmers. Both scenario present improved sustainability performances and could be complementary to initiate more sustainable practices in local farming systems. The methodology allows designing multi-level and multi-domain scenarios of crop-livestock integration. It could be improved with models for quantitative assessment of benefits and coordination costs among stakeholders
Style APA, Harvard, Vancouver, ISO itp.
45

Gholami, Bahman. "Application des systèmes de calcul à haute performance dans les études électrothermiques à l'échelle nanoscopique". Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/2065/1/030259746.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
46

Torandell, Sandrine. "Extrapolation de conditions opératoires de fabrication d'émulsions à usage cosmétique lors du passage de l'échelle laboratoire aux échelles pilote et industrielle". Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL031N.

Pełny tekst źródła
Streszczenie:
Dans l'industrie cosmétique, la fabrication de lotions (émulsions macroscopiques) s'effectue souvent en mode semi-batch. Les protocoles de fabrication de ces lotions sont définis et extrapoles aux différentes échelles de production de façon très empirique. Afin de réduire cet empirisme, il est possible d'appliquer les méthodes du génie des procédés. Nous avons choisi une formulation modèle de lotion cosmétique, caractéristique de cette gamme de produits, dont le comportement rhéologique s'est avéré sensible aux fluctuations de protocole de fabrication. La qualité de l'émulsion finale a été définie par rapport a sa rhéologie (comportement en écoulement et spectroscopie mécanique) et a ses caractéristiques sensorielles. Les réacteurs de fabrication utilisés sont équipés de deux outils distincts : un outil de macro mélange pour l'homogénéisation, les transferts thermiques et l'alimentation du deuxième outil, une turbine cisaillante pour la rupture des gouttes. Nous avons utilise plusieurs tailles de réacteurs, depuis le microréacteur jusqu'aux réacteurs pilotes et de production industrielle, en passant par des mini-reacteurs de laboratoire. Les trois réacteurs de plus petite taille ont été équipés de capteurs de couple sur l'outil de macro mélange afin d'assurer le suivi in situ d'une viscosité de procédé pendant les différentes phases de la fabrication, notamment la phase d'émulsification proprement dite et la phase de gélification de la phase continue. Ils constituent alors ce que nous avons appelé des rhéo-réacteurs. Nous avons propose et valide deux critères d'extrapolation, le premier, lié à l'outil de macro mélange, basé sur une puissance volumique constante, et le second, appliqué simultanément et lié à la turbine cisaillante, basé sur une énergie volumique constante. Pour ce dernier critère, le volume de référence choisi est le volume cisaille dans la turbine.
Style APA, Harvard, Vancouver, ISO itp.
47

Simo, Kanmeugne Patrick. "Simulation crédible des déplacements de piétons en temps réel : modèle microscopique à influence macroscopique". Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066597.

Pełny tekst źródła
Streszczenie:
Le but de nos travaux est de définir des algorithmes permettant de simuler les déplacements de piétons dans un environnement urbain, en temps réel, et de manière crédible. Les modèles existants pour ce type d'exercice sont développés suivant deux types d'approches : microscopiques - les piétons sont modélisés comme des agents autonomes - et macroscopiques - les piétons sont considérés comme soumis à des lois d'écoulement. Selon nous, ces deux approches ne s'opposent pas, mais se complètent mutuellement. Aussi nous inspirons-nous des jeux de congestion et des SMA pour proposer une formulation générique du problème de déplacement de piétons. Nous introduisons la notion de ressource de navigation, décrite comme une région de l'espace que les agents utilisent pour atteindre leurs objectifs, et via lesquelles ils interagissent pour estimer leurs dépenses énergétiques, et nous proposons une stratégie de déplacement basée sur les heuristiques taboues. Le concept d'environnement issu du paradigme SMA s'avère adapté pour appréhender la complexité de la simulation. L'environnement est vu comme un composant indépendant et ontologiquement différent des agents. Une partie de la dynamique de la simulation est ainsi déléguée à l'environnement sans altérer l'autonomie des agents, ce qui favorise la crédibilité des résultats et le passage à l'échelle. Nous comparons notre modèle avec un modèle microscopique standard via plusieurs scénarii de simulation et montrons que notre modèle produit des résultats plus crédibles du point de vue d'un observateur extérieur et plus proches des études empiriques connues du déplacement des piétons
In this work, we focus on real-time simulation of autonomous pedestrians navigation. Existing models for this purpose tend to diverge on whether to build on pedestrians' characteristics and local interactions - microscopic approaches - or to focus on pedestrians' flow regardless of individual characteristics - macroscopic approaches. Our position is that the two approaches should not be separated. Thus, we introduce a Macroscopic-Influenced Microscopic approach which aims at reducing the gap between microscopic and macroscopic approaches by providing credible walking paths for a potentially highly congested crowd of autonomous pedestrians. Our approach originates from a least-effort formulation of the navigation task, which allows us to consistently account for congestion at every levels of decision. We use the multi-agent paradigm and describe pedestrians as autonomous and situated agents who plan dynamically for energy efficient paths, and interact with each other through the environment. The navigable space is considered as a set of contiguous resources that agents use to build their paths. We emulate the dynamic path computation for each agent with an evolutionary search algorithm that implement a tabu search heuristic, especially designed to be executed in real-time and autonomously. We have compared an implementation of our approach with a standard microscopic model, against low-density and high density scenarios, with encouraging results in terms of credibility and scalability. We believe that microscopic models could be easily extended to embrace our approach, thus providing richer simulations of potentially highly congested crowd of autonomous pedestrians
Style APA, Harvard, Vancouver, ISO itp.
48

Graux, Damien. "On the efficient distributed evaluation of SPARQL queries". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM058/document.

Pełny tekst źródła
Streszczenie:
Le Web Sémantique est une extension du Web standardisée par le World Wide Web Consortium. Les différents standards utilisent comme format de base pour les données le Resource Description Framework (rdf) et son langage de requêtes nommé sparql. Plus généralement, le Web Sémantique tend à orienter l’évolution du Web pour permettre de trouver et de traiter l’information plus facilement. L'augmentation des volumes de données rdf disponibles tend à faire rendre standard la distribution des jeux de données. Par conséquent, des évaluateurs de requêtes sparql efficaces et distribués sont de plus en plus nécessaires. Pour faire face à ces challenges, nous avons commencé par comparer plusieurs évaluateurs sparql distribués de l'état-de-l'art tout en adaptant le jeu de métriques considéré. Ensuite, une analyse guidée par des cas typiques d'utilisation nous a conduit à définir de nouveaux champs de développement dans le domaine de l'évaluation distribuée de sparql. Sur la base de ces nouvelles perspectives, nous avons développé plusieurs évaluateurs efficaces pour ces différents cas d'utilisation que nous avons comparé expérimentalement
The Semantic Web standardized by the World Wide Web Consortium aims at providing a common framework that allows data to be shared and analyzed across applications. Thereby, it introduced as common base for data the Resource Description Framework (rdf) and its query language sparql.Because of the increasing amounts of rdf data available, dataset distribution across clusters is poised to become a standard storage method. As a consequence, efficient and distributed sparql evaluators are needed.To tackle these needs, we first benchmark several state-of-the-art distributed sparql evaluators while adapting the considered set of metrics to a distributed context such as e.g. network traffic. Then, an analysis driven by typical use cases leads us to define new development areas in the field of distributed sparql evaluation. On the basis of these fresh perspectives, we design several efficient distributed sparql evaluators which fit into each of these use cases and whose performances are validated compared with the already benchmarked evaluators. For instance, our distributed sparql evaluator named sparqlgx offers efficient time performances while being resilient to the loss of nodes
Style APA, Harvard, Vancouver, ISO itp.
49

Liénart, Camilla. "La matière organique particulaire dans les systèmes côtiers : composition, dynamique et forçages à l'échelle multi-systémique". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0255/document.

Pełny tekst źródła
Streszczenie:
Les systèmes côtiers pélagiques sont caractérisés par de multiples apports de matière organique particulaire (MOP) d’origine autochtone (phytoplancton) ou allochtone (continentale, benthique) dont la variabilité spatiale et temporelle peut être forte. L’objectif de ma thèse était 1) de quantifier la composition de la MOP des systèmes côtiers pélagiques, 2) de déterminer les forçages à sa dynamique spatio-temporelle et 3) d’investiguer le lien entre bactéries et composition de la MOP. Cette étude a été menée sur douze systèmes (estuaire, lagune, rias, baies, littoraux) distribués sur les trois façades maritimes françaises, en combinant rapports isotopiques et élémentaires (composition), acides gras (lien MOP-bactéries) et statistiques multivariées (forçages).A l’échelle multi-systémique et/ou intra-systémique, deux grands gradients sont observés :- un gradient côte (plus forte contribution continentale et benthique) – large (MOP phytoplanctonique), principalement lié à l’hydrodynamique sédimentaire (débits des fleuves, remise en suspension du matériel benthique) et à la proximité des sources allochtones- un gradient Sud (présence de MOP issue de la diazotrophie) – Nord (absence de cette MOP), en lien avec le statut trophique (oligo vs méso/eutrophie) des systèmes.La saisonnalité de la dynamique temporelle de la composition de la MOP est fortement variable selon les sites. Elle est généralement plus forte près de la côte et plus faible au large et en zone amont de l’estuaire étudié. Cette dynamique est également reliée à l’hydrodynamique sédimentaire.Enfin, l’étude a révélé que la biomasse bactérienne est principalement associée à la MOP continentale et benthique
Pelagic coastal systems are characterized by multiple inputs of particulate organic matter (POM) from autochthonous (phytoplankton) and allochthonous (continental, benthic) origin whose spatial and temporal variability can be high. The aims of my PhD were to 1) quantify POM composition in pelagic coastal systems, 2) determine the forcings to its spatio-temporal dynamics and 3) investigate the link between bacteria and POM composition. This study was conducted on twelve systems (estuary, lagoon, bays, rias, littoral) distributed over the three maritime facades of France by combining the use of elemental and isotopic ratios (composition), fatty acids (POM-bacteria link) and multivariate analysis (forcings).At multi-systems and/or intra-system scale, two main gradients are observed:- an inshore (higher continental and benthic contribution) - offshore gradient (phytoplanktonic POM) mainly related to hydrodynamics and sedimentary hydrodynamics (river flow, resuspension of benthic material) and to the proximity to allochthonous sources- a South (POM related to diazotrophy) – North (absence of this POM) gradient, associated to the trophic status (oligo vs meso/eutrophy) of the studied systems.The seasonality of spatio-temporal dynamics of POM composition is highly variable depending on the station. It is in general higher near the coast and lower offshore and upstream in the studied estuary. This dynamic is also strongly associated to sedimentary hydrodynamics.Finally, this study highlight that bacterial biomass is mainly associated to continental and benthic POM
Style APA, Harvard, Vancouver, ISO itp.
50

D'Ascenzo, Luigi. "Etude des réseaux de reconnaissance biomoléculaire à l'échelle atomique pour les systèmes ARN et ARN/protéines". Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAJ108/document.

Pełny tekst źródła
Streszczenie:
Mis à part les liaisons hydrogène, d’autres interactions non covalentes participent dans les réseaux de reconnaissance ARN et ARN protéines. Parmi celles-ci, j’ai étudié les interactions oxygène-pi. Cette interaction prend la forme phosphate-pi dans les U turns et O4'-pi dans les motifs ARN-Z. Je propose une nouvelle classification des boucles de quatre nucléotides, décrivant les U turn et les Z turn à partir d’interactions oxygène-pi. De plus, les motifs "Z like" présents dans tous les ARN, sont aussi reconnus par certaines protéines immunologiques. Pour mieux comprendre les réseaux de reconnaissance biomoléculaire, nous avons examiné les interactions entre cations/anions et ARN. Nous avons trouvé de nombreuses erreurs dans les structures de la PDB et proposé des règles pour améliorer l'attribution d’espèces ioniques. Les résultats de cette thèse amélioreront notre connaissance des réseaux de reconnaissance biomoléculaire et aideront aux techniques de modélisation structurale des ARN
Together with hydrogen bonds, uncommon non-covalent interactions are fundamental for recognition networks in RNA and RNA-protein systems. Among them, I focused on oxygen-pi stacking. This interaction takes the form of phosphate-pi within U-turns and of ribose O4’-pi within “Z-RNA” motifs. In that respect, a novel classification of tetraloops is proposed, defining U-turns and Z-turns based on their oxygen-pi stacking properties. Further, “Z-like” motifs are found to pervade small and large RNAs, being also a recognition pattern for immunology-related proteins. To better understand biomolecular recognition networks, we reviewed the binding of metal ions and anions within RNA, finding many examples of ions misattribution in PDB structures. We propose rules to avoid attribution errors. The results of this thesis will improve our knowledge and understanding of biomolecular recognition networks, as well as assist structural determination and structural modelling techniques of RNA systems
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii