Academic literature on the topic 'Passage à l'échelle des systèmes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Passage à l'échelle des systèmes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Passage à l'échelle des systèmes"

1

Joseph, C., C. Rodier, M. Soulie, F. Sinegre, and R. Baylet. "Approche des transferts de pollution bactérienne dans une crue karstique par l'étude des paramètres physico-chimiques." Revue des sciences de l'eau 1, no. 1-2 (April 12, 2005): 73–106. http://dx.doi.org/10.7202/705004ar.

Full text
Abstract:
L'exploitation des systèmes aquifères karstiques est toujours effectuée sous des contraintes liées à leur forte vulnérabilité. Une étude complète d'un épisode de crue de la source du Lez a été réalisée grâce à une coopération entre les Services de Santé et l'Université. Cette étude comporte une observation des paramètres physico-chimiques et bactériologiques sur une période de 15 jours, correspondant à une réponse hydrodynamique impulsionnelle sur la totalité du bassin. Les pas de temps d'échantillonnage varient de 4 à 24 heures. L'interprétation des résultats physico-chimiques met en évidence une disjonction nette entre les variations piézométriques et le passage de différents volumes d'eau. L'écoulement des eaux plus chaudes (16,5 °C) observé lors de l'étiage, eaux d'origine profonde plus chargées chimiquement se poursuit jusque vers le milieu de la décrue pour faire place à l'arrivée d'eaux plus froides correspondant à des infiltrations rapides puis retardées. Les eaux les plus chaudes sont caractérisées par des variations des teneurs en magnésium, les teneurs en calcium restant à peu prés constantes. Inversement; les eaux froides de l'infiltration retardée ont de faibles variations des teneurs en magnésium et sont tracées par une forte augmentation des valeurs en calcium. Le risque sanitaire maximal est lié au début de l'arrivée des eaux froides. Les eaux d'étiage et les eaux profondes sont légèrement contaminées. Les eaux d'infiltration retardée sont peu contaminées. En dehors des zones de perte du réseau hydrographique et des axes d'infiltration rapide, la vulnérabilité de l'aquifère est faible à l'échelle du bassin.
APA, Harvard, Vancouver, ISO, and other styles
2

IMFELD, Gwenaël, Sylvain PAYRAUDEAU, Sabine SAUVAGE, Francis MACARY, Cédric CHAUMONT, Jérémie D. LEBRUN, Anne PROBST, José-Miguel SÁNCHEZ-PÉREZ, Jean-Luc PROBST, and Julien TOURNEBIZE. "Quel est le rôle des retenues collinaires pour limiter les flux de pesticides dans le paysage agricole ?" Sciences Eaux & Territoires, no. 43 (October 9, 2023): 49–56. http://dx.doi.org/10.20870/revue-set.2023.43.7792.

Full text
Abstract:
Les systèmes aquatiques tels que les mares, les zones humides, les bassins d’orage, les retenues collinaires, ci-après nommées « retenues d’eau », sont des systèmes de rétention d'eau omniprésents dans les bassins versants agricoles. Ces retenues opèrent comme des réacteurs biogéochimiques naturels, contrôlant la dissipation et le transfert des contaminants agricoles, dont les pesticides, à l'échelle du bassin versant. De façon complémentaire aux mesures et aux pratiques de réduction voire d’élimination de l’utilisation des pesticides de synthèse, le projet PESTIPOND (2018-2023), financé par l’Agence nationale de la recherche (ANR), s’est intéressé au rôle des retenues dans les transferts de pesticides à l'échelle du bassin versant. Les résultats principaux sont présentés dans cet article. PESTIPOND a permis de mieux comprendre, hiérarchiser et prédire les processus qui conditionnent la dissipation des pesticides dans les retenues et comment la dissipation des pesticides dans les retenues régit le transfert de pesticides à l'échelle du bassin versant dans des conditions hydro-climatiques et des pratiques d'exploitation agricole variables. Pour intégrer les aspects multi-échelles et dynamiques de cette problématique, un cadre de modélisation tenant compte du rôle des retenues à l'échelle du bassin versant est proposé pour améliorer la prédiction du transfert de pesticides et l'évaluation des risques de transfert vers les écosystèmes aquatiques.
APA, Harvard, Vancouver, ISO, and other styles
3

Gauthier, Roger-François. "Juin 2007. Des systèmes éducatifs interpellés à l'échelle mondiale ?" Diversité 11, no. 1 (2009): 162–66. http://dx.doi.org/10.3406/diver.2009.7877.

Full text
Abstract:
Comment convient-il d’équiper les élèves pour le côtoiement de l’autre ? Quelle figure donner au sein des systèmes d’apprentissage à celui dont la présence même conteste leurs traditions et leurs certitudes ? Cette question n’est pas une question française, ni même européenne, mais une question désormais mondiale à laquelle n’échappe aucune collectivité humaine.
APA, Harvard, Vancouver, ISO, and other styles
4

Imafouo, Amélie, and Michel Beigbeder. "Vers des protocoles d'évaluation du passage à l'échelle." Ingénierie des systèmes d'information 11, no. 4 (August 24, 2006): 37–53. http://dx.doi.org/10.3166/isi.11.4.37-53.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Boughanem, M., Lynda Tamine-Lechani, José Martinez, Sylvie Calabretto, and Jean-Pierre Chevallet. "Un nouveau passage à l'échelle en recherche d'information." Ingénierie des systèmes d'information 11, no. 4 (August 24, 2006): 9–35. http://dx.doi.org/10.3166/isi.11.4.9-35.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lamine, Claire. "Transitions vers l'agriculture biologique à l'échelle des systèmes agri-alimentaires territoriaux." Pour 212, no. 5 (2011): 129. http://dx.doi.org/10.3917/pour.212.0129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Murray, P., and J. de la Noüe. "Evaluation à l'échelle pilote d'un aérateur à cheminement prolongé." Revue des sciences de l'eau 1, no. 3 (April 12, 2005): 179–201. http://dx.doi.org/10.7202/705008ar.

Full text
Abstract:
En vue d'optimiser l'aération de substrats liquides à forte charge organique dissoute, un système d'aération fonctionnant selon te principe du "cheminement prolongé" a été conçu et construit à l'échelle pilote (3 000 L). Le principe mis à l'essai consiste à injecter de l'air à la base de longs tuyaux enroulés. La dynamique hydraulique du système à cheminement prolongé a été caractérisée. Un système d'aération plus conventionnel, soit un injecteur d'air de type poreux, a été utilisé comme base de comparaison. Les performances d'oxygénation des deux systèmes ont été mesurées dans l'eau, sous les mêmes conditions, puis comparées entre elles et aux valeurs rapportées dans la littérature pour d'autres systèmes. Les principaux résultats montrent que le coefficient de transfert d'oxygène (KL.a) est bon à l'intérieur des tuyaux de l'aérateur à cheminement prolongé (jusqu'à 230 h-1). Le nouveau prototype démontre également une forte capacité d'emprisonnement de l'air puisque le gonflement atteint 20 %. Finalement, de bonnes efficacités énergétiques ont été obtenues : des valeurs brute de 1.9 kg O2/kWh et nette de 9.2 kg O2/kWh ont été atteintes. Le prototype, tel que construit, a offert des performances. d'oxygénation globales similaires à cettes démontrées par l'injecteur d'air de type poreux, le volume interne des tuyaux, qui présente un intérêt particulier pour le transfert d'oxygène, ne représentant que 26 % du volume liquide total. L'optimisation de l'aérateur à cheminement prolongé passe donc par l'accroissement maximal du volume interne des tuyaux par rapport au volume liquide total. Cette mesure se traduirait par une augmentation de la capacité d'oxygénation totale et des efficacités physique et énergétique du transfert d'oxygène, ainsi que par une diminution des puissances spécifiques requises. Les performances du système à cheminement prolone dans un liquide chargé en substrat organique restent à étudier, mais les résultats préliminaires obtenus dans l'eau du robinet sont encourageants.
APA, Harvard, Vancouver, ISO, and other styles
8

de Launay, Caroline. "La dialectique de l’espace dans Harry Potter: le motif du passage secret." Jeunesse: Young People, Texts, Cultures 2, no. 2 (December 2010): 40–60. http://dx.doi.org/10.3138/jeunesse.2.2.40.

Full text
Abstract:
L’oeuvre de J.K. Rowling, Harry Potter, présente deux systèmes spatiaux: le monde des Moldus et celui des Sorciers, fonctionnant selon des règles que le personnage Moldu et/ou Sorcier observe et reconnait. Puisqu’ils se partagent une même étendue géographique, les deux systèmes supposent une logistique. Le motif du passage secret sert de moyen terme à cette dialectique. Cet article cherche à expliciter la structure du monde créé par J.K. Rowling à travers le motif du passage secret qui distingue les deux systèmes.
APA, Harvard, Vancouver, ISO, and other styles
9

SFIA, Mohammed. "Notes pour une analyse du système mondial." Sociologie et sociétés 3, no. 2 (September 30, 2002): 151–74. http://dx.doi.org/10.7202/001700ar.

Full text
Abstract:
Résumé À l'époque actuelle, la scène planétaire n'est pas telle que la décrit l'approche des " relations inter-nationales " : une juxtaposition d'entités ; elle consiste au contraire en un système mondial, dont les sociétés globales, ou les ensembles de sociétés globales, sont les parties constitutives. L'auteur propose ici de premiers éléments d'analyse de ce système mondial. À cet effet, il définit les ensembles de sociétés qu'un premier travail de catégorisation permet de distinguer : ensembles qui sont appelés " sous-systèmes ". Ensuite sont étudiés les rapports qui existent entre ces sous-systèmes, notamment en termes de dominance et de subordination. Enfin sont dégagées les contradictions majeures du système mondial actuel, contradictions dont la pluralité s'avère du reste réductible à la contradiction fondamentale qui oppose le développement des forces productives à l'échelle mondiale et les rapports mondiaux.
APA, Harvard, Vancouver, ISO, and other styles
10

Huppé, Luc. "Les déclarations de principes internationales relatives à l'indépendance judiciaire." Les Cahiers de droit 43, no. 2 (April 12, 2005): 299–326. http://dx.doi.org/10.7202/043709ar.

Full text
Abstract:
Depuis le début des années 80, le sujet de l'indépendance judiciaire fait l'objet, à l'échelle internationale, de nombreuses déclarations de principes qui en détaillent les différentes facettes. Des organisations diverses, particulièrement au sein de la magistrature, cherchent à mettre en évidence les composantes de ce concept susceptibles de trouver application dans des systèmes juridiques variés et à définir sa portée universelle. La Cour suprême du Canada a pris appui sur certaines de ces déclarations à quelques occasions, leur accordant ainsi une certaine portée en droit canadien.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Passage à l'échelle des systèmes"

1

Schmidt, Loïc. "Passage à l'échelle des intergiciels RFID pour l'informatique diffuse." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10155/document.

Full text
Abstract:
Selon le concept de l'Internet des Objets (IoT), chaque objet manufacturé se voit attribuer un identifiant unique se présentant sous forme d'une étiquette RFID (Radio Frequency Identification). L'arrivée de ces RFID dans le processus de gestion des biens soulève des problématiques techniques telles que leur intégration dans l'Internet qui permettra d'accéder aux informations relatives à l'objet identifié, recueillies durant sa vie. En effet, avec l'expansion d'une telle technologie, l'architecture de cet IoT doit être capable de passer à l'échelle et doit fournir un moyen efficace de gérer ces informations. Afin de faciliter le développement et le déploiement de solutions RFID, des standards ont été mis en place par EPCGlobal définissant les interfaces d'un intergiciel RFID : un composant filtrant et agrégeant les évènements issus des lecteurs (ALE), un composant stockant ces données (EPCIS), un composant permettant de retrouver ces bases de données (ONS), etc.Nous proposons une solution de distribution de ces différents composants utilisant les techniques des tables de hachages distribuées. Nous présentons un composant ALE distribué, qui offre la possibilité d'interroger n'importe quel lecteur partagé du réseau ainsi qu'une solution pour l'interrogation des EPCIS de façon efficace, sans surcharger le réseau. Étant donné l'importance du système d'ONS, qui est à l'IoT ce que le DNS est à l'Internet, nous avons exploré une solution alternative à celle des DNS afin de distribuer ce composant. Nos solutions permettent un passage à l'échelle efficace de l'intergiciel d'EPCGlobal, offrant un intergiciel générique pour l'informatique diffuse
Following the Internet of Things (IoT) concept, each manufactured object is associated with an RFID tag (Radio Frequency IDentification) embedding a unique identifier. The incoming of this RFID in the management of goods process rises technical issues such as their integration into the Internet allowing to access object related information gathered along its life. Indeed, with the spreading of this technology, the architecture of this IoT must be scalable and must provide an efficient way for managing these informations. In order to facilitate the development and the deployment of RFID solutions, standards have been ratified by EPCGlobal specifying interfaces for an RFID middleware: a component filtering and collecting events coming from readers (ALE), a component stocking these informations (EPCIS), a component allowing to retrieve these databases (ONS), ...We propose a distributed solution of these different components by using the distributed hash tables technology. We present a distributed ALE component that provides a way to interrogate every shared reader in the network, and a solution to query and retrieve informations from EPCIS in a efficient manner, without overloading the network. Considering the importance of the ONS system, which is to IoT what DNS is to Internet, we have explored an alternate solution to the DNS one in order to distribute this component. Our solutions offer an efficient scalability to the EPCGlobal middleware, providing a generic middleware for ubiquitous computing
APA, Harvard, Vancouver, ISO, and other styles
2

Olejnik, Richard. "Passage à l'échelle d'applications java distribuées auto-adaptatives." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00833237.

Full text
Abstract:
L'évolution rapide des réseaux, des stations de travail, des gros calculateurs sans oublier les ordinateurs personnels, donne naissance à de nouvelles alternatives architecturales pour les traitements parallèles et distribués. Les Grappes, les grilles de calcul et plus récemment le calcul en nuages (Cloud Computing) répondent aux besoins en calcul sans cesse croissants, grâce à des nouveaux paradigmes et concepts logiciels et systèmes basés sur la programmation distribuée. Les principales caractéristiques des applications développées dans ce cadre sont d'être hétérogènes, irrégulières et imprévisibles. Pour permettre une exécution efficace des applications réparties en Java, nous proposons un environnement de programmation et un environnement d'exécution (ADAJ : Adaptative Distributed Applications in Java) qui optimise le placement dynamique des objets de l'application sur les grappes et les grilles d'ordinateurs. Cette répartition s'appuie sur de nouveaux mécanismes d'observation de l'activité des objets et des relations entre eux. Le gain de cette distribution flexible et adaptative des objets se traduit par une meilleure efficacité de l'exécution et la possibilité d'utiliser au mieux la puissance des différents calculateurs, tout en minimisant les coûts de communication et les surcoûts liés au contrôle de l'application. Munie de ces mécanismes, la plate-forme logicielle ADAJ assure une répartition adaptative et automatique des éléments de l'application sur la plateforme d'exécution, répondant de cette façon, aux évolutions du calcul et aux modifications de la disponibilité des ressources. Ce fonctionnement est basé sur un procédé de vol de cycle et permet de contrôler la granularité du traitement. Le programmeur n'a plus en principe, à s'en préoccuper. Les mécanismes ont été implémentés pour diverses plateformes et technologies. Dans un premier temps, ils ont été conçus pour fonctionner sur des grappes de stations de travail. Nous avons ensuite fait évoluer les solutions adoptées pour fonctionner sur des réseaux plus vastes (passage à l'échelle). En particulier, nous avons introduit un framework basé sur des composants logiciels, qui aide le concepteur à bâtir des applications pour grilles d'ordinateurs. Puis, ces travaux ont été étendus, de sorte que la plateforme ADAJ est aujourd'hui, un intergiciel à part entière. Elle est basée sur des web services et son système d'information, sur des systèmes à agents. Les mécanismes d'ADAJ peuvent maintenant gérer des plateformes d'exécution de type grille composées, à priori de milliers de machines. Nous avons finalement testé cette approche pour des problèmes de fouille de données à l'aide d'algorithmes distribués, spécifiquement développés. De cette façon nous avons répondu à la problématique actuelle concernant la mise en oeuvre et l'exploitation d'architecture de grille par des systèmes de type SOKU (Service Oriented Knowledge Utilities). Pour conclure, nous montrons comment nos travaux pourraient être utilisés dans l'environnement des systèmes-sur-puce de nouvelle génération.
APA, Harvard, Vancouver, ISO, and other styles
3

Tran, Viet-Trung. "Sur le passage à l'échelle des systèmes de gestion des grandes masses de données." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00783724.

Full text
Abstract:
La problématique "Big Data" peut être caractérisée par trois "V": * "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. * "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. * "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture.
APA, Harvard, Vancouver, ISO, and other styles
4

Godard, Paul. "Parallélisation et passage à l'échelle durable d'une chaïne de traitement graphique pour l'impression professionnelle." Thesis, Strasbourg, 2019. https://publication-theses.unistra.fr/public/theses_doctorat/2019/Godard_Paul_2019_ED269.pdf.

Full text
Abstract:
Les nombreuses avancées du vaste domaine de l’impression professionnelle ont permis la multiplication des objets imprimés dans nos quotidiens. Désormais, la flexibilité introduite par les procédés d’impression numérique promet d’associer les souhaits de personnalisation avec les avantages de la production de masse. La rapide évolution des usages et des technologies, caractérisée par des fermes d’impression toujours plus grandes et des presses numériques toujours plus rapides, pose des problèmes inédits aux systèmes informatiques actuels qui pilotent les imprimantes. Dans cette thèse, nous explorons de nouvelles techniques inspirées des systèmes de calcul haute performance afin d’accélérer l’exécution des traitements graphiques indispensables à l’impression numérique. Nous introduisons pour cela une architecture de calculs distribués flexible exploitant des techniques de traitement et de synchronisation optimisées. Nous détaillons les principes de fonctionnement et les subtilités de l’implémentation de nos travaux qui permettent de respecter les contraintes spécifiques des flux de données produits. Nous réalisons une évaluation complète de notre solution qui y démontre ses excellentes performances et sa viabilité
The strong and continuous improvements in the professional printing field have led to the ubiquity of printed objects in our daily life. The flexibility introduced by the digital printing process promises to associate extensive customization with mass production. The quick growth of printing usages and technologies, illustrated by wider printer farms and faster digital presses, leads to original challenges for the computer system in charge of driving them. In this thesis, we explore new approaches inspired by the high performance computing field to speedup the graphics processing necessary to digital printing. To achieve this goal, we introduce a distributed system which provides the adequate flexibility and performance by exploiting and optimizing both processing and synchronization techniques. We present our architecture up to the subtle parts of its implementation which allows our solution to meet the specific constraints on generating streams for printing purpose. We perform a complete evaluation of our solution and provide experimental evidence of its great performance and viability
APA, Harvard, Vancouver, ISO, and other styles
5

Quiane-Ruiz, Jorge-Arnulfo. "Allocation de Requêtes dans des Systèmes d'Information Distribués avec des Participants Autonomes." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00464475.

Full text
Abstract:
Nous nous intéressons aux systèmes d'informations où les participants (clients et fournisseurs) sont autonomes, c.à.d. ils peuvent décider de quitter le système à n'importe quel moment, et qu'ils ont des intérêts particuliers pour certaines requêtes. Dans ces environnements, l'allocation de requêtes est un défi particulier car les attentes des participants ne sont pas seulement liées aux performances du système. Dans ce contexte, l'insatisfaction des participants est un problème car elle peut les conduire à quitter le système. Par conséquent, il est très important de répondre aux attentes des participants de sorte à ce qu'ils soient satisfaits. Dans cette thèse, nous abordons ce problème en apportant quatre contributions principales. Primo, nous fournissons un modèle pour caractériser la perception des participants par rapport au système et proposons des mesures qui permettent d'évaluer la qualité des méthodes d'allocation de requêtes. Secundo, nous proposons une méthode d'allocation de requêtes, SbQA, qui permet d'équilibrer à la volée les intérêts tant des clients que des fournisseurs en se basant sur leur satisfaction. Tertio, nous proposons $bQA : une version économique de SbQA qui permet de passer à l'échelle en nombre de médiateurs, de participants, et par conséquent, de requêtes traitées. Quarto, nous proposons SbQR : une méthode de réplication de requêtes qui permet de supporter les pannes éventuelles des participants, tout en préservant leur satisfaction.
APA, Harvard, Vancouver, ISO, and other styles
6

Dumas, Julie. "Représentation dynamique de la liste des copies pour le passage à l'échelle des protocoles de cohérence de cache." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM093/document.

Full text
Abstract:
Le problème du passage à l’échelle des protocoles de cohérence de cache qui se pose pour les machines parallèles se pose maintenant aussi sur puce, suite à l’émergence des architectures manycores. Il existe fondamentalement deux classes de protocoles : ceux basés sur l’espionnage et ceux utilisant un répertoire. Les protocoles basés sur l’espionnage, qui doivent transmettre à tous les caches les informations de cohérence, engendrent un nombre important de messages dont peu sont effectivement utiles. En revanche, les protocoles avec répertoires visent à n’envoyer des messages qu’aux caches qui en ont besoin. L’implémentation la plus évidente utilise un champ de bits complet dont la taille dépend uniquement du nombre de cœurs. Ce champ de bits représente la liste des copies. Pour passer à l’échelle, un protocole de cohérence doit émettre un nombre raisonnable de messages de cohérence et limiter le matériel utilisé pour la cohérence et en particulier pour la liste des copies. Afin d’évaluer et de comparer les différents protocoles et leurs représentations de la liste des copies, nous proposons tout d’abord une méthode de simulation basée sur l’injection de traces dans un modèle de cache à haut niveau. Cette méthode permet d’effectuer rapidement l’exploration architecturale des protocoles de cohérence de cache. Dans un second temps, nous proposons une nouvelle représentation dynamique de la liste des copies pour le passage à l’échelle des protocoles de cohérence de cache. Pour une architecture à 64 cœurs, 93% des lignes de cache sont partagées par au maximum 8 cœurs, sachant par ailleurs que le système d’exploitation chercher à placer les tâches communicantes proches les unes des autres. Notre représentation dynamique de la liste des copies tire parti de ces deux observations en utilisant un champ de bits pour un sous-ensemble des copies et une liste chaînée. Le champ de bits correspond à un rectangle à l’intérieur duquel la représentation de la liste des copies est exacte. La position et la forme de ce rectangle évoluent au cours de la durée de vie des applications. Plusieurs algorithmes pour le placement du rectangle cohérent sont proposés et évalués. Pour finir, nous effectuons une comparaison avec les représentations de la liste des copies de l’état de l’art
Cache coherence protocol scalability problem for parallel architecture is also a problem for on chip architecture, following the emergence of manycores architectures. There are two protocol classes : snooping and directory-based.Protocols based on snooping, which send coherence information to all caches, generate a lot of messages whose few are useful.On the other hand, directory-based protocols send messages only to caches which need them. The most obvious implementation uses a full bit vector whose size depends only on the number of cores. This bit vector represents the sharing set. To scale, a coherence protocol must produce a reasonable number of messages and limit hardware ressources used by the coherence and in particular for the sharing set.To evaluate and compare protocols and their sharing set, we first propose a method based on trace injection in a high-level cache model. This method enables a very fast architectural exploration of cache coherence protocols.We also propose a new dynamic sharing set for cache coherence protocols, which is scalable. With 64 cores, 93% of cache blocks are shared by up to 8 cores.Futhermore, knowing that the operating system looks to place communicating tasks close to each other. Our dynamic sharing set takes advantage from these two observations by using a bit vector for a subset of copies and a linked list. The bit vector corresponds to a rectangle which stores the exact sharing set. The position and shape of this rectangle evolve over application's lifetime. Several algorithms for coherent rectangle placement are proposed and evaluated. Finally, we make a comparison with sharing sets from the state of the art
APA, Harvard, Vancouver, ISO, and other styles
7

Lamarche-Perrin, Robin. "Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00933186.

Full text
Abstract:
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
APA, Harvard, Vancouver, ISO, and other styles
8

Saeida, Ardekani Masoud. "Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066234/document.

Full text
Abstract:
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête
In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%
APA, Harvard, Vancouver, ISO, and other styles
9

Sakka, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0023/document.

Full text
Abstract:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d’échange, de partage et de stockage de l’information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d’accès ainsi qu’une efficacité d’organisation et de recherche de l’information. Malgré ses avantages, l’information numérique a l’inconvénient d’être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l’information et pour vérifier si elle répond à un ensemble d’exigences métier, techniques et légales. Aujourd’hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L’objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l’information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l’exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l’hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d’interprétation minimal et commun pour n’importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l’interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d’abord une architecture logique de PMS indépendante des choix technologiques d’implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d’un PMS. Par la suite, et afin de préserver l’autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l’ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l’archivage de documents à valeur probante. Ensuite, l’aspect passage à l’ échelle de notre architecture a été testé par l’implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l’interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
Provenance is a key metadata for assessing electronic documents trustworthiness. It allows to prove the quality and the reliability of its content. With the maturation of service oriented technologies and Cloud computing, more and more data is exchanged electronically and dematerialization becomes one of the key concepts to cost reduction and efficiency improvement. Although most of the applications exchanging and processing documents on the Web or in the Cloud become provenance aware and provide heterogeneous, decentralized and not interoperable provenance data, most of Provenance Management Systems (PMSs) are either dedicated to a specific application (workflow, database, ...) or a specific data type. Those systems were not conceived to support provenance over distributed and heterogeneous sources. This implies that end-users are faced with different provenance models and different query languages. For these reasons, modeling, collecting and querying provenance across heterogeneous distributed sources is considered today as a challenging task. This is also the case for designing scalable PMSs providing these features. In the fist part of our thesis, we focus on provenance modelling. We present a new provenance modelling approach based on semantic Web technologies. Our approach allows to import provenance data from heterogeneous sources, to enrich it semantically to obtain high level representation of provenance. It provides syntactic interoperability between those sources based on a minimal domain model (MDM), supports the construction of rich domain models what allows high level representations of provenance while keeping the semantic interoperability. Our modelling approch supports also semantic correlation between different provenance sources and allows the use of a high level semantic query language. In the second part of our thesis, we focus on the design, implementation and scalability issues of provenance management systems. Based on our modelling approach, we propose a centralized logical architecture for PMSs. Then, we present a mediator based architecture for PMSs aiming to preserve provenance sources distribution. Within this architecture, the mediator has a global vision on all provenance sources and possesses query processing and distribution capabilities. The validation of our modelling approach was performed in a document archival context within Novapost, a company offering SaaS services for documents archiving. Also, we propose a non-functional validation aiming to test the scalability of our architecture. This validation is based on two implementation of our PMS : he first uses an RDF triple store (Sesame) and the second a NoSQL DBMS coupled with the map-reduce parallel model (CouchDB). The tests we performed show the limits of Sesame in storing and querying large amounts of provenance data. However, the PMS based on CouchDB showed a good performance and a linear scalability
APA, Harvard, Vancouver, ISO, and other styles
10

SAKKA, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00762641.

Full text
Abstract:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d'échange, de partage et de stockage de l'information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d'accès ainsi qu'une efficacité d'organisation et de recherche de l'information. Malgré ses avantages, l'information numérique a l'inconvénient d'être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l'information et pour vérifier si elle répond à un ensemble d'exigences métier, techniques et légales. Aujourd'hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L'objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l'information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l'exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l'hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d'interprétation minimal et commun pour n'importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l'interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d'abord une architecture logique de PMS indépendante des choix technologiques d'implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d'un PMS. Par la suite, et afin de préserver l'autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l'ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l'archivage de documents à valeur probante. Ensuite, l'aspect passage à l' échelle de notre architecture a été testé par l'implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l'interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Passage à l'échelle des systèmes"

1

Ontario. Esquisse de cours 12e année: Systèmes informatiques ice4e cours préemploi. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ontario. Esquisse de cours 12e année: Systèmes informatiques ice4m cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ontario. Esquisse de cours 12e année: Sciences de l'activité physique pse4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ontario. Esquisse de cours 12e année: Technologie de l'information en affaires btx4e cours préemploi. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ontario. Esquisse de cours 12e année: Études informatiques ics4m cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ontario. Esquisse de cours 12e année: Mathématiques de la technologie au collège mct4c cours précollégial. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ontario. Esquisse de cours 12e année: Sciences snc4m cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ontario. Esquisse de cours 12e année: English eae4e cours préemploi. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ontario. Esquisse de cours 12e année: Le Canada et le monde: une analyse géographique cgw4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ontario. Esquisse de cours 12e année: Environnement et gestion des ressources cgr4e cours préemploi. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Passage à l'échelle des systèmes"

1

"Le passage à l'échelle supérieure." In Coopération pour le développement : Rapport 2009, 97–111. OECD, 2009. http://dx.doi.org/10.1787/dcr-2009-10-fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

OLIVERO, Jesús. "Biogéographie des maladies." In La biogéographie, 299–325. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9060.ch11.

Full text
Abstract:
Les analyses à haute résolution de la dynamique spatio-temporelle des maladies zoonotiques sont actuellement abordées, à l'échelle mondiale, par l'application de méthodes biogéographiques et de concepts théoriques. Ces études sont utiles pour identifier les processus d'émergence, de dispersion et d'établissement des maladies infectieuses, pour améliorer les stratégies de surveillance des maladies et pour concevoir des systèmes d'alerte précoce ayant des bases géographiques significatives.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Passage à l'échelle des systèmes"

1

Godet, A., M. Smit, C. Guilmette, and F. Fournier-Roy. La longue vie du Batholite de Decelles, Pontiac, Québec: les grenats à notre rescousse! Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/332509.

Full text
Abstract:
Les granites peralumineux sont reconnus à l'échelle mondiale comme le produit magmatique final des cratons archéens. Cependant, leur durée, les conditions thermiques de leur mise en place, leur séquence de cristallisation, ainsi que les liens avec l'évolution tectonométamorphique des roches encaissantes et les systèmes minéralisés en métaux précieux, de base, et rares sont peu connus. Le Batholite de Decelles (c. 2670-2620 Ma) exposé dans le sud-est du craton du Supérieur au Québec, Canada est l'un des plus volumineux de la région, offrant une opportunité unique dmp;gt;'améliorer notre compréhension des conditions thermiques et de la mobilité des magmas et des fluides dans la croûte moyenne et supérieure. Nous présentons des nouvelles datations Lu-Hf et des cartes dmp;gt;'éléments traces sur grenat de trois échantillons de granite du Batholite de Decelles. Les nouvelles dates de 2668 ± 4 Ma, 2663 ± 5 Ma, 2656 ± 7 Ma sont indifférenciables (considérant les incertitudes) des dates Lu-Hf sur grenat et U-Pb sur monazite des unités métasédimentaires encaissantes. La cartographie des éléments traces in situ par LA-ICP-MS révèle une zonation compositionnelle systématique. Les grenats présentent un cur avec une zonation oscillatoire concentrique en Li, P, Sc, Ti, Y, Zr, REE, Hf, Th et U; et une surcroissance marquée par des concentrations relativement élevées en MREE, HREE et V, et de faibles concentrations en Li, Ti, P, Sm, Zr, Hf et U par rapport aux curs. Les résultats indiquent une origine magmatique des grenats par opposition aux grenats métamorphiques de la source avec une histoire de cristallisation complexe. Le contenu en éléments traces du grenat semble être contrôlé par des variations cinétiques de croissance et de diffusion à l'interface grenat-matrice, ainsi que par la cristallisation de phases majeures et accessoires telles que la muscovite, la monazite, l'apatite et le zircon. Dans l'ensemble, le grenat du Batholite de Decelles date le début de la cristallisation magmatique et son contenu en éléments traces enregistre son histoire complète. Les archives géochronologiques régionales indiquent une évolution commune des niveaux de croûte moyenne et supérieure avec un refroidissement progressif entre c. 2640 et c. 2620 Ma, associé à la migration et au refroidissement de fluides minéralisateurs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography