Добірка наукової літератури з теми "Application Distribuée Parallèle"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Application Distribuée Parallèle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Application Distribuée Parallèle"

1

Spahi, Enis, and D. Altilar. "ITU-PRP: Parallel and Distributed Computing Middleware for Java Developers." International Journal of Business & Technology 3, no. 1 (November 2014): 2–13. http://dx.doi.org/10.33107/ijbte.2014.3.1.01.

Повний текст джерела
Анотація:
ITU-PRP provides a Parallel Programming Framework for Java Developers on which they can adapt their sequential application code to operate on a distributed multi-host parallel environment. Developers would implement parallel models, such as Loop Parallelism, Divide and Conquer, Master-Slave and Fork-Join by the help of an API Library provided under framework. Produced parallel applications would be submitted to a middleware called Parallel Running Platform (PRP), on which parallel resources for parallel processing are being organized and performed. The middleware creates Task Plans (TP) according to application’s parallel model, assigns best available resource Hosts, in order to perform fast parallel processing. Task Plans will be created dynamically in real time according to resources actual utilization status or availability, instead of predefined/preconfigured task plans. ITU-PRP achieves better efficiency on parallel processing over big data sets and distributes divided base data to multiple hosts to be operated by Coarse-Grained parallelism. According to this model distributed parallel tasks would operate independently with minimal interaction until processing ends.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

César, Eduardo, Anna Morajko, Tomàs Margalef, Joan Sorribes, Antonio Espinosa, and Emilio Luque. "Dynamic Performance Tuning Supported by Program Specification." Scientific Programming 10, no. 1 (2002): 35–44. http://dx.doi.org/10.1155/2002/549617.

Повний текст джерела
Анотація:
Performance analysis and tuning of parallel/distributed applications are very difficult tasks for non-expert programmers. It is necessary to provide tools that automatically carry out these tasks. These can be static tools that carry out the analysis on a post-mortem phase or can tune the application on the fly. Both kind of tools have their target applications. Static automatic analysis tools are suitable for stable application while dynamic tuning tools are more appropriate to applications with dynamic behaviour. In this paper, we describe KappaPi as an example of a static automatic performance analysis tool, and also a general environment based on parallel patterns for developing and dynamically tuning parallel/distributed applications.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

VADHIYAR, SATHISH S., and JACK J. DONGARRA. "SRS: A FRAMEWORK FOR DEVELOPING MALLEABLE AND MIGRATABLE PARALLEL APPLICATIONS FOR DISTRIBUTED SYSTEMS." Parallel Processing Letters 13, no. 02 (June 2003): 291–312. http://dx.doi.org/10.1142/s0129626403001288.

Повний текст джерела
Анотація:
The ability to produce malleable parallel applications that can be stopped and reconfigured during the execution can offer attractive benefits for both the system and the applications. The reconfiguration can be in terms of varying the parallelism for the applications, changing the data distributions during the executions or dynamically changing the software components involved in the application execution. In distributed and Grid computing systems, migration and reconfiguration of such malleable applications across distributed heterogeneous sites which do not share common file systems provides flexibility for scheduling and resource management in such distributed environments. The present reconfiguration systems do not support migration of parallel applications to distributed locations. In this paper, we discuss a framework for developing malleable and migratable MPI message-passing parallel applications for distributed systems. The framework includes a user-level checkpointing library called SRS and a runtime support system that manages the checkpointed data for distribution to distributed locations. Our experiments and results indicate that the parallel applications, with instrumentation to SRS library, were able to achieve reconfigurability incurring about 15-35% overhead.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

MORAJKO, ANNA, OLEG MORAJKO, JOSEP JORBA, TOMÀS MARGALEF, and EMILIO LUQUE. "AUTOMATIC PERFORMANCE ANALYSIS AND DYNAMIC TUNING OF DISTRIBUTED APPLICATIONS." Parallel Processing Letters 13, no. 02 (June 2003): 169–87. http://dx.doi.org/10.1142/s0129626403001227.

Повний текст джерела
Анотація:
The classical way of tuning parallel/distributed applications is based on the analysis of the monitoring information obtained from an execution of the application. However, this "measure and modify" approach is not feasible when the applications have a dynamic behavior. In this case, another approach is required to accomplish performance expectations. This paper presents a solution based on the dynamic tuning approach that addresses these issues. In this approach, an application is monitored, its performance bottlenecks are detected and the application is modified automatically during the execution, without stopping, recompiling or re-running it. The introduced modifications adapt the behavior of the application to dynamic variations.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Sikora, Andrzej, and Ewa Niewiadomska-Szynkiewicz. "Parallel and Distributed Simulation of Ad Hoc Networks." Journal of Telecommunications and Information Technology, no. 3 (June 26, 2023): 76–84. http://dx.doi.org/10.26636/jtit.2009.3.943.

Повний текст джерела
Анотація:
Modeling and simulation are traditional methods used to evaluate wireless network design. This paper addresses issues associated with the application of parallel discrete event simulation to mobile ad hoc networks design and analysis. The basic characteristics and major issues pertaining to ad hoc networks modeling and simulation are introduced. The focus is on wireless transmission and mobility models. Particular attention is paid to the MobASim system, a Javabased software environment for parallel and distributed simulation of mobile ad hoc networks. We describe the design, performance and possible applications of presented simulation software.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Baude, Francoise, Denis Caromel, and David Sagnol. "Distributed Objects for Parallel Numerical Applications." ESAIM: Mathematical Modelling and Numerical Analysis 36, no. 5 (September 2002): 837–61. http://dx.doi.org/10.1051/m2an:2002039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ioannidis, Sotiris, Umit Rencuzogullari, Robert Stets, and Sandhya Dwarkadas. "CRAUL: Compiler and Run-Time Integration for Adaptation under Load." Scientific Programming 7, no. 3-4 (1999): 261–73. http://dx.doi.org/10.1155/1999/603478.

Повний текст джерела
Анотація:
Clusters of workstations provide a cost‐effective, high performance parallel computing environment. These environments, however, are often shared by multiple users, or may consist of heterogeneous machines. As a result, parallel applications executing in these environments must operate despite unequal computational resources. For maximum performance, applications should automatically adapt execution to maximize use of the available resources. Ideally, this adaptation should be transparent to the application programmer. In this paper, we present CRAUL (Compiler and Run‐Time Integration for Adaptation Under Load), a system that dynamically balances computational load in a parallel application. Our target run‐time is software‐based distributed shared memory (SDSM). SDSM is a good target for parallelizing compilers since it reduces compile‐time complexity by providing data caching and other support for dynamic load balancing. CRAUL combines compile‐time support to identify data access patterns with a run‐time system that uses the access information to intelligently distribute the parallel workload in loop‐based programs. The distribution is chosen according to the relative power of the processors and so as to minimize SDSM overhead and maximize locality. We have evaluated the resulting load distribution in the presence of different types of load – computational, computational and memory intensive, and network load. CRAUL performs within 5–23% of ideal in the presence of load, and is able to improve on naive compiler‐based work distribution that does not take locality into account even in the absence of load.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Chen, Wenjie, Qiliang Yang, Ziyan Jiang, Jianchun Xing, Shuo Zhao, Qizhen Zhou, Deshuai Han, and Bowei Feng. "SwarmL: A Language for Programming Fully Distributed Intelligent Building Systems." Buildings 13, no. 2 (February 12, 2023): 499. http://dx.doi.org/10.3390/buildings13020499.

Повний текст джерела
Анотація:
Fully distributed intelligent building systems can be used to effectively reduce the complexity of building automation systems and improve the efficiency of the operation and maintenance management because of its self-organization, flexibility, and robustness. However, the parallel computing mode, dynamic network topology, and complex node interaction logic make application development complex, time-consuming, and challenging. To address the development difficulties of fully distributed intelligent building system applications, this paper proposes a user-friendly programming language called SwarmL. Concretely, SwarmL (1) establishes a language model, an overall framework, and an abstract syntax that intuitively describes the static physical objects and dynamic execution mechanisms of a fully distributed intelligent building system, (2) proposes a physical field-oriented variable that adapts the programming model to the distributed architectures by employing a serial programming style in accordance with human thinking to program parallel applications of fully distributed intelligent building systems for reducing programming difficulty, (3) designs a computational scope-based communication mechanism that separates the computational logic from the node interaction logic, thus adapting to dynamically changing network topologies and supporting the generalized development of the fully distributed intelligent building system applications, and (4) implements an integrated development tool that supports program editing and object code generation. To validate SwarmL, an example application of a real scenario and a subject-based experiment are explored. The results demonstrate that SwarmL can effectively reduce the programming difficulty and improve the development efficiency of fully distributed intelligent building system applications. SwarmL enables building users to quickly understand and master the development methods of application tasks in fully distributed intelligent building systems, and supports the intuitive description and generalized, efficient development of application tasks. The created SwarmL support tool supports the downloading and deployment of applications for fully distributed intelligent building systems, which can improve the efficiency of building control management and promote the application and popularization of new intelligent building systems.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Collins, C., and M. Duffy. "Distributed (parallel) inductor design for VRM applications." IEEE Transactions on Magnetics 41, no. 10 (October 2005): 4000–4002. http://dx.doi.org/10.1109/tmag.2005.855163.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Alléon, G., S. Champagneux, G. Chevalier, L. Giraud, and G. Sylvand. "Parallel distributed numerical simulations in aeronautic applications." Applied Mathematical Modelling 30, no. 8 (August 2006): 714–30. http://dx.doi.org/10.1016/j.apm.2005.06.014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Application Distribuée Parallèle"

1

Lavallée, Ivan. "Contribution à l'algoritmique parallèle et distribuée : application à l'optimisation combinatoire." Paris 11, 1986. http://www.theses.fr/1986PA112275.

Повний текст джерела
Анотація:
Cette thèse est divisée en trois parties : la première partie, précédée d'un chapitre 0 qui précise et justifie vocabulaire et notations, est composée de deux chapitres I et II, qui traitent du problème de la terminaison distribuée, apprentissage et détection, l'idée maîtresse étant celle de "mot circulant" qui généralise le concept de jeton circulant. Le mot circulant permettant un apprentissage de propriétés de l'algorithme distribué étudié. Le chapitre II fournit de plus un algorithme distribué d'identification des circuits élémentaires d'un graphe. La deuxième partie est consacrée à l'étude de trois grands problèmes combinatoires tels que : La recherche des plus courts chemins dans un graphe valué, pour la résolution duquel nous réutilisons des concepts du chapitre II et pour lequel l'algorithme distribué que nous construisons se distingue des autres algorithmes connus par sa totale asynchronicité. (Chapitre III). La recherche d'un arbre couvrant (chapitre IV) pour laquelle, en allant à contrario de quelques idées établies sur la question, on donne un algorithme distribué totalement asynchrone, minimisant le nombre de messages échangés, et ce, malgré des hypothèses moins restrictives (en particulier, nous admettons la possibilité d'arêtes équipondérées) que les autres algorithmes distribués élaborés pour ce faire. L'énumération implicite parallèle (chapitre V) pour laquelle on fait apparaître, en environnement parallèle, des phénomènes nouveaux, en particulier à propos des gains de performance en temps, qui tranchent avec quelques idées largement répandues. Pour ces trois chapitres, nous donnons la particularisation à un environnement parallèle type machine à mémoire partagée (PRAM), et pour les chapitres III et V, nous donnons, en annexe, les programmes, jeux d'essais et résultats de tests sur CRAY. La troisième partie, tirant les enseignements théoriques des deux précédentes, essaie de donner une définition du concept d'algorithme parallèle et distribuée qui soit cohérente avec ce qui se fait en séquentiel, et qui permette une évaluation et une comparaison des algorithmes parallèles ou distribués (chapitre VI). Le, tri, fusion, et le problème de l'arbre couvrant minimum du chapitre VII est une application du modèle du chapitre VI à quatre problèmes; recherche du maximum IV.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Tourancheau, Bernard. "Algorithmique parallèle pour les machines à mémoire distribuée : application aux algorithmes matriciels." Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00332663/.

Повний текст джерела
Анотація:
Différents résultats de complexité sont présentés pour les communications et le calcul sur des machines à mémoire distribuée. Les topologies concernées sont le réseau linéaire, l'anneau, la grille, l'hypercube et le réseau complet. Un réseau systolique est présenté pour l'algorithme de diagonalisation de Jordan. Une étude sur l'accélération et une étude de l'allocation des données sont formulées dans le contexte des mémoires distribuées
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Gamom, Ngounou Ewo Roland Christian. "Déploiement d'applications parallèles sur une architecture distribuée matériellement reconfigurable." Thesis, Cergy-Pontoise, 2015. http://www.theses.fr/2015CERG0773/document.

Повний текст джерела
Анотація:
Parmi les cibles architecturales susceptibles d'être utilisées pour réaliser un système de traitement sur puce (SoC), les architectures reconfigurables dynamiquement (ARD) offrent un potentiel de flexibilité et de dynamicité intéressant. Cependant ce potentiel est encore difficile à exploiter pour réaliser des applications massivement parallèles sur puce. Dans nos travaux nous avons recensé et analysé les solutions actuellement proposées pour utiliser les ARD et nous avons constaté leurs limites parmi lesquelles : l'utilisation d'une technologie particulière ou d'architecture propriétaire, l'absence de prise en compte des applications parallèles, le passage à l'échelle difficile, l'absence de langage adopté par la communauté pour l'utilisation de la flexibilité des ARD, ...Pour déployer une application sur une ARD il est nécessaire de considérer l'hétérogénéité et la dynamicité de l'architecture matérielle d'une part et la parallélisation des traitements d'autre part. L'hétérogénéité permet d'avoir une architecture de traitement adaptée aux besoins fonctionnels de l'application. La dynamicité permet de prendre en compte la dépendance des applications au contexte et de la nature des données. Finalement, une application est naturellement parallèle.Dans nos travaux nous proposons une solution pour le déploiement sur une ARD d'une application parallèle en utilisant les flots de conception standard des SoC. Cette solution est appelée MATIP (MPI Application Task Integreation Platform) et utilise des primitives du standard MPI version 2 pour effectuer les communications et reconfigurer l'architecture de traitement. MATIP est une solution de déploiement au niveau de la conception basée plate-forme (PBD).La plateforme MATIP est modélisée en trois couches : interconnexion, communication et application. Nous avons conçu chaque couche pour que l'ensemble satisfasse les besoins en hétérogénéité et dynamicité des applications parallèles . Pour cela MATIP utilise une architecture à mémoire distribuée et exploite le paradigme de programmation parallèle par passage de message qui favorise le passage à l'échelle de la plateforme.MATIP facilite le déploiement d'une application parallèle sur puce à travers un template en langage Vhdl d'intégration de tâches. L'utilisation des primitives de communication se fait en invoquant des procédures Vhdl.MATIP libère le concepteur de tous les détails liés à l'interconnexion, la communication entre les tâches et à la gestion de la reconfiguration dynamique de la cible matérielle. Un démonstrateur de MATIP a été réalisée sur des FPGA Xilinx à travers la mise en oe{}uvre d'une application constituée de deux tâches statiques et deux tâches dynamiques. MATIP offre une bande passante de 2,4 Gb/s et une la latence pour le transfert d'un octet de 3,43 µs ce qui comparée à d'autres plateformes MPI (TMD-MPI, SOC-MPI, MPI HAL) met MATIP à l'état de l'art
Among the architectural targets that could be buid a system on chip (SoC), dynamically reconfigurable architectures (DRA) offer interesting potential for flexibility and dynamicity . However this potential is still difficult to use in massively parallel on chip applications. In our work we identified and analyzed the solutions currently proposed to use DRA and found their limitations including: the use of a particular technology or proprietary architecture, the lack of parallel applications consideration, the difficult scalability, the lack of a common language adopted by the community to use the flexibility of DRA ...In our work we propose a solution for deployment on an DRA of a parallel application using standard SoC design flows. This solution is called MATIP ( textit {MPI Application Platform Task Integreation}) and uses primitives of MPI standard Version 2 to make communications and to reconfigure the MP-RSoC architecture . MATIP is a Platform-Based Design (PBD) level solution.The MATIP platform is modeled in three layers: interconnection, communication and application. Each layer is designed to satisfies the requirements of heterogeneity and dynamicity of parallel applications. For this, MATIP uses a distributed memory architecture and utilizes the message passing parallel programming paradigm to enhance scalability of the platform.MATIP frees the designer of all the details related to interconnection, communication between tasks and management of dynamic reconfiguration of the hardware target. A demonstrator of MATIP was performed on Xilinx FPGA through the implementation of an application consisting of two static and two dynamic hardware tasks. MATIP offers a bandwidth of 2.4 Gb / s and latency of 3.43 microseconds for the transfer of a byte. Compared to other MPI platforms (TMD-MPI, SOC-MPI MPI HAL), MATIP is in the state of the art
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Philippe, Jean-Laurent. "Programmation de calculateurs massivement parallèles : application à la factorisation d'entiers." Grenoble INPG, 1990. http://tel.archives-ouvertes.fr/tel-00338193.

Повний текст джерела
Анотація:
Cette thèse est composée de deux parties: les développements lies à la génération des nombres premiers et l'implantation du crible quadratique. Dans la première partie, nous analysons les stratégies d'allocation des données aux processeurs pour le crible d'Eratosthène dans un environnement à mémoire partagée en vue d'améliorer l'équilibrage de la charge de travail. Puis, nous proposons des implantations sur l'hypercube FPS T40 a mémoire distribuée. Comme le caractère centralise du crible d'Eratosthène (de type maitre/esclaves) s'accommode mal des exigences de l'architecture distribuée, nous étudions un algorithme de génération des nombres premiers par divisions successives sur un anneau. Cet algorithme nécessite la mise en œuvre d'une technique de détection de la terminaison distribuée, par un dénombrement des processeurs ayant termine l'exécution de leur programme. Enfin, l'aspect maitre/esclaves du crible d'Eratosthène permet l'étude de méthodologies d'implantation de ce type d'algorithmes sur un réseau linéaire et une grille de processeurs. La deuxième partie est consacrée au crible quadratique multipolynomial, algorithme de factorisation des grands entiers, utilise en cryptographie. Notre but est d'extraire le maximum de parallélisme de chacune des étapes de cet algorithme dans un environnement distribue, afin d'utiliser au mieux la puissance des calculateurs massivement parallèles. Cette étude conduit a une implantation efficace sur l'hypercube FPS T40
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Desprez, Frédéric. "Procédures de base pour le calcul scientifique sur machines parallèles à mémoire distribuée." Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344993.

Повний текст джерела
Анотація:
Le but de cette thèse est l'étude et l'implémentation de routines de base pour aider l'utilisateur de machines parallèles à mémoire distribuée à obtenir les meilleures performances avec un coût de développement moindre. Trois ensembles de routines sont étudiés. Le premier concerne des routines de communication sur réseau réconfigurable. La seconde bibliothèque fournit à l'utilisateur des routines portables de recouvrements calculs/communications transparents. Enfin, le dernier ensemble concerne des routines de calcul comme le produit de matrices, la factorisation LU et la transformée de Fourier bidimensionnelle. Une attention toute particulière est portée aux recouvrements calculs/communications. Enfin, une application des principes présentés tout au long de la thèse est donnée. Elle concerne la simulation d'un front de combustion
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Jeatsa, Toulepi Armel. "Optimisation de l'allocation de la mémoire cache CPU pour les fonctions cloud et les applications haute performance." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP089.

Повний текст джерела
Анотація:
Les services informatiques contemporains reposent principalement sur deux paradigmes majeurs : le cluster computing et le cloud computing. Le premier implique la répartition des tâches de calcul entre différents nœuds qui fonctionnent ensemble comme un seul système, tandis que le second se fonde sur la virtualisation de l'infrastructure informatique qui permet sa fourniture à la demande. Dans le cadre de cette thèse, notre attention se porte sur l'allocation du cache de dernier niveau (LLC) dans le contexte de ces deux paradigmes, en se concentrant spécifiquement sur les applications distribuées et les fonctions FaaS. Le LLC est un espace mémoire partagé et utilisé par tous les cœurs de processeur sur un socket NUMA. Étant une ressource partagée, il est sujet à de la contention qui peut avoir un impact significatif sur les performances. Pour pallier ce problème, Intel a mis en œuvre une technologie dans ses processeurs qui permet le partitionnement et l'allocation de la mémoire cache : Cache Allocation Technology (CAT).Dans ce travail, à l'aide de la technologie CAT, nous examinons d'abord l'impact de la contention du LLC sur les performances des fonctions FaaS. Ensuite, nous étudions comment cette contention dans un sous-ensemble de nœuds d'un cluster affecte les performances globales d'une application distribuée en cours d'exécution. De ces études, nous proposons CASY et CADiA, des systèmes d’allocation intelligents du LLC respectivement pour les fonctions FaaS et pour les applications distribuées. CASY utilise l'apprentissage automatique supervisé pour prédire les besoins en cache d'une fonction FaaS en se basant sur la taille du fichier d'entrée, tandis que CADiA construit dynamiquement le profil d'une application distribuée et effectue une allocation harmonisée sur tous les nœuds en fonction de ce profil. Ces deux solutions nous ont permis d'obtenir des gains de performance allant jusqu'à environ 11% pour CASY, et 13% pour CADiA
Contemporary IT services are mainly based on two major paradigms: cluster computing and cloud computing. The former involves the distribution of computing tasks between different nodes that work together as a single system, while the latter is based on the virtualization of computing infrastructure, enabling it to be provided on demand. In this thesis, our focus is on last-level cache (LLC) allocation in the context of these two paradigms, concentrating specifically on distributed parallel applications and FaaS functions. The LLC is a shared memory space used by all processor cores on a NUMA socket. As a shared resource, it is subject to contention, which can have a significant impact on performance. To alleviate this problem, Intel has implemented a technology in its processors that enables partitioning and allocation of cache memory: Cache Allocation Technology (CAT).In this work, using CAT, we first examine the impact of LLC contention on the performance of FaaS functions. Then, we study how this contention in a subset of nodes in a cluster affects the overall performance of a running distributed application. From these studies, we propose CASY and CADiA, intelligent LLC allocation systems for FaaS functions and distributed applications respectively. CASY uses supervised machine learning to predict the cache requirements of a FaaS function based on the size of the input file, while CADiA dynamically constructs the cache usage profile of a distributed application and performs harmonized allocation across all nodes according to this profile. These two solutions enabled us to achieve performance gains of up to around 11% for CASY, and 13% for CADiA
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Bougé, Luc. "Modularité et symétrie pour les systèmes répartis; application au langage CSP." Phd thesis, Université Paris-Diderot - Paris VII, 1987. http://tel.archives-ouvertes.fr/tel-00416184.

Повний текст джерела
Анотація:
L'évaluation des systèmes répartis est habituellement fondée sur des critères numériques relatifs à la quantité d'information échangée au cours des calculs. Nous montrons que ces critères ne sont pas suffisants pour évaluer le degré de répartition des algorithmes répartis usuels. Des critères qualitatifs, spécifiques de la répartition, sont nécessaires.

La modularité exprime que les processeurs du système n'ont initialement aucune connaissance concernant globalement le réseau dans lequel ils sont plongés. La symétrie exprime que les processeurs avec des positions topologiquement équivalentes dans le réseau ont aussi des rôles équivalents dans les calculs.

Nous définissons ces propriétés dans le cadre du langage CSP des processus séquentiels communicants de Hoare. Nous proposons une définition syntaxique pour la modularité. Nous montrons qu'une définition syntaxique de la symétrie n'est pas suffisante. Nous en proposons une définition sémantique. Cette définition se réfère implicitement à une sémantique partiellement ordonnée de CSP.

Nous étudions l'existence d'algorithmes de diffusion et d'élection dans les réseaux de processus communicants, qui soient modulaires et symétriques. Nous obtenons de nombreux résultats positifs et négatifs. Ceci conduit en particulier à une évaluation précise du pouvoir expressif de CSP. Nous montrons par exemple qu'il n'existe pas d'implantation des gardes d'émission par des gardes de réception seulement, si la symétrie doit être préservée.

Ces résultats sont enfin utilisés pour proposer une solution modulaire, symétrique et bornée au problème de la détection de la terminaison répartie proposé par Francez.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Dad, Cherifa. "Méthodologie et algorithmes pour la distribution large échelle de co-simulations de systèmes complexes : application aux réseaux électriques intelligents (Smart Grids)." Electronic Thesis or Diss., CentraleSupélec, 2018. http://www.theses.fr/2018CSUP0004.

Повний текст джерела
Анотація:
L’apparition des réseaux électriques intelligents, ou « Smart Grids », engendre de profonds changements dans le métier de la distribution d’électricité. En effet, ces réseaux voient apparaître de nouveaux usages (véhicules électriques, climatisation) et de nouveaux producteurs décentralisés (photovoltaïque, éolien), ce qui rend plus difficile le besoin d’équilibre entre l’offre et la demande en électricité et qui impose d’introduire une forme d’intelligence répartie entre leurs différents composants. Au vu de la complexité et de l’ampleur de la mise en oeuvre des Smart Grids, il convient tout d’abord de procéder à des simulations afin de valider leur fonctionnement. Pour ce faire, CentraleSupélec et EDF R&D (au sein de l’institut RISEGrid) ont développé DACCOSIM, une plate-forme de co-simulation s’appuyant sur la norme FMI1(Functional Mock-up Interface), permettant de concevoir et de mettre au point des réseaux électriques intelligents et de grandes tailles. Les composants clés de cette plate-forme sont représentés sous forme de boîtes grises appelées FMU (Functional Mock-up Unit). En outre, les simulateurs des systèmes physiques des Smart Grids peuvent faire des retours arrière en cas de problème dans leurs calculs, contrairement aux simulateurs événementiels (unités de contrôle) qui, bien souvent, ne peuvent qu’avancer dans le temps. Pour faire collaborer ces différents simulateurs, nous avons conçu une solution hybride prenant en considération les contraintes de tous les composants, et permettant d’identifier précisément les types d’événements auxquels le système est confronté. Cette étude a débouché sur une proposition d’évolution de la norme FMI. Par ailleurs, il est difficile de simuler rapidement et efficacement un Smart Grid, surtout lorsque le problème est à l’échelle nationale ou même régionale. Pour pallier ce manque, nous nous sommes focalisés sur la partie la plus gourmande en calcul, à savoir la co-simulation des dispositifs physiques. Ainsi, nous avons proposé des méthodologies, approches et algorithmes permettant de répartir efficacement et rapidement ces différentes FMU sur des architectures distribuées. L’implantation de ces algorithmes a déjà permis de co-simuler des cas métiers de grande taille sur un cluster de PC multi-coeurs. L’intégration de ces méthodes dans DACCOSIM permettraaux ingénieurs d’EDF de concevoir des « réseaux électriques intelligents de très grande taille » plus résistants aux pannes
The emergence of Smart Grids is causing profound changes in the electricity distribution business. Indeed, these networks are seeing new uses (electric vehicles, air conditioning) and new decentralized producers (photovoltaic, wind), which make it more difficult to ensure a balance between electricity supply and demand, and imposes to introduce a form of distributed intelligence between their different components. Considering its complexity and the extent of its implementation, it is necessary to co-simulate it in order to validate its performances. In the RISEGrid institute, CentraleSupélec and EDF R&D have developed a co-simulation platform based on the FMI2 (Functional Mock-up Interface) standard called DACCOSIM, permitting to design and develop Smart Grids. The key components of this platform are represented as gray boxes called FMUs (Functional Mock-up Unit). In addition, simulators of the physical systems of Smart Grids can make backtracking when an inaccuracy is suspected in FMU computations, unlike discrete simulators (control units) that often can only advance in time. In order these different simulators collaborate, we designed a hybrid solution that takes into account the constraints of all the components, and precisely identifies the types of the events that system is facing. This study has led to a FMI standard change proposal. Moreover, it is difficult to rapidly design an efficient Smart Grid simulation, especially when the problem has a national or even a regional scale.To fill this gap,we have focused on the most computationally intensive part, which is the simulation of physical devices. We have therefore proposed methodologies, approaches and algorithms to quickly and efficiently distribute these different FMUs on distributed architectures. The implementation of these algorithms has already allowed simulating large-scale business cases on a multi-core PC cluster. The integration of these methods into DACCOSIM will enable EDF engineers to design « large scale Smart Grids » which will be more resistant to breakdowns
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Mosli, Bouksiaa Mohamed Said. "Performance variation considered helpful." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL001/document.

Повний текст джерела
Анотація:
Comprendre les performances d'une application multi-thread est difficile. Les threads interfèrent quand ils accèdent à la même ressource, ce qui ralentit leur exécution. Malheureusement, les outils de profiling existants se focalisent sur l'identification des causes de l'interférence, et non pas sur ses effets.Le développeur ne peut donc pas conclure si l'optimisation d'une interférence identifiée par un outil de profiling peut mener à une meilleure performance. Dans cette thèse, on propose de compléter les outils existants par un outil orienté-effet capable de quantifier l'impact de l'interférence sur la performance, indépendamment de la cause de l'interférence. Avec une évaluation de 27 applications, on montre que notre outil réussit à identifier 12 bottlenecks causés par 6 types d'interférence différents
Understanding the performance of a multi-threaded application is difficult. The threads interfere when they access the same resource, which slows their execution down. Unfortunately, current profiling tools focus on identifying the interference causes, not their effects.The developer can thus not know if optimizing the interference reported by a profiling tool can lead to better performance. In this thesis, we propose to complete the profiling toolbox with an effect-oriented profiling tool able to indicate how much interference impacts performance, regardless of the interference cause. With an evaluation of 27 applications, we show that our tool successfully identifies 12 performance bottlenecks caused by 6 different kinds of interference
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Bounaim, Aïcha. "Méthodes de décomposition de domaine : application à la résolution de problèmes de contrôle optimal." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004809.

Повний текст джерела
Анотація:
Ce travail porte sur l'étude des méthodes de décomposition de domaine et leur application pour résoudre des problèmes de contrôle optimal régis par des équations aux dérivées partielles. Le principe de ces méthodes consiste à ramener des problèmes de grande taille sur des géométries complexes en une suite de sous-problèmes de taille plus petite sur des géométries plus simples. En considérant une décomposition sans recouvrement, l'intérêt de ces méthodes pour les problèmes de contrôle optimal réside au niveau de l'intégration de l'équation d'état, puisqu'il est possible de partitionner le problème en une suite de problèmes plus petits, quitte à contraindre les interfaces entre les sous-domaines à obéir à des conditions de raccordement afin de déduire la solution globale à partir des solutions locales. Dans une première partie, nous étudions le cas elliptique. Nous considérons simultanément la minimisation de la fonction coût et des raccordements sur les frontières entre les sous-domaines. Cette combinaison de problèmes de minimisation et de méthodes de décomposition de domaine est traitée par des techniques de Lagrangien augmenté. Nous montrons que, sur le domaine décomposé, le problème initial se réduit à la recherche d'un point-selle. Une étude des méthodes de Lagrangien nous a permis de choisir une variante d'algorithmes existants dans la littérature et de les combiner avec un algorithme de décomposition de domaine. Dans la seconde partie, nous développons l'extension de cette approche aux problèmes de contrôle optimal régis par des systèmes paraboliques en considérant uniquement une décomposition en espace du domaine de calcul. Dans une dernière partie, nous considérons une décomposition de domaine avec recouvrement à chaque pas de la minimisation. D'une part, nous construisons un algorithme parallèle en utilisant la méthode de Schwarz multiplicative en tant que solveur. Ceci permet de déduire naturellement l'état adjoint par transposition des systèmes directs locaux. L'algorithme global défini par la méthode de minimisation de type quasi-Newton et ce solveur de Schwarz constitue une méthode robuste de résolution du problème de contrôle optimal, mais coûteuse. D'autre part, et plus particulièrement, pour des problèmes de grande taille, l'algorithme de type quasi-Newton, combiné avec le solveur de Krylov BiCGSTAB préconditionné par une méthode de Schwarz additive, est plus compétitif dans la mesure oû l'on obtient de bonnes performances parallèles. De nombreux résultats sont présentés pour préciser le comportement des algorithmes d'optimisation quand ils sont utilisés avec des méthodes de Schwarz.
Стилі APA, Harvard, Vancouver, ISO та ін.

Книги з теми "Application Distribuée Parallèle"

1

Stojmenovic, Ivan, Ruppa K. Thulasiram, Laurence T. Yang, Weijia Jia, Minyi Guo, and Rodrigo Fernandes de Mello, eds. Parallel and Distributed Processing and Applications. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-74742-0.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Guo, Minyi, and Laurence Tianruo Yang, eds. Parallel and Distributed Processing and Applications. Berlin, Heidelberg: Springer Berlin Heidelberg, 2003. http://dx.doi.org/10.1007/3-540-37619-4.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Guo, Minyi, Laurence T. Yang, Beniamino Di Martino, Hans P. Zima, Jack Dongarra, and Feilong Tang, eds. Parallel and Distributed Processing and Applications. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11946441.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Pan, Yi, Daoxu Chen, Minyi Guo, Jiannong Cao, and Jack Dongarra, eds. Parallel and Distributed Processing and Applications. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11576235.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Cao, Jiannong, Laurence T. Yang, Minyi Guo, and Francis Lau, eds. Parallel and Distributed Processing and Applications. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/b104574.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Institute Of Electrical and Electronics Engineers. IEEE parallel & distributed technology: Systems & applications. Los Alamitos, CA: IEEE Computer Society, 1993.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Shen, Hong, Yingpeng Sang, Yong Zhang, Nong Xiao, Hamid R. Arabnia, Geoffrey Fox, Ajay Gupta, and Manu Malek, eds. Parallel and Distributed Computing, Applications and Technologies. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96772-7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Xie, Guoqi, Gang Zeng, Renfa Li, and Keqin Li. Scheduling Parallel Applications on Heterogeneous Distributed Systems. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-6557-7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Park, Jong Hyuk, Hong Shen, Yunsick Sung, and Hui Tian, eds. Parallel and Distributed Computing, Applications and Technologies. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-5907-1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Liew, Kim-Meow, Hong Shen, Simon See, Wentong Cai, Pingzhi Fan, and Susumu Horiguchi, eds. Parallel and Distributed Computing: Applications and Technologies. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/b103538.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Application Distribuée Parallèle"

1

Chung, Minh Thanh, Josef Weidendorfer, Karl Fürlinger, and Dieter Kranzlmüller. "Proactive Task Offloading for Load Balancing in Iterative Applications." In Parallel Processing and Applied Mathematics, 263–75. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-30442-2_20.

Повний текст джерела
Анотація:
AbstractLoad imbalance is often a challenge for applications in parallel systems. Static cost models and pre-partitioning algorithms distribute the load at the beginning. Nevertheless, dynamic changes during execution or inaccurate cost indicators may lead to imbalance at runtime. Reactive work-stealing strategies can help monitor the execution and perform task migration to balance the load. However, the benefits depend on migration overhead and assumption about future execution.Our proactive approach further improves existing solutions by applying machine learning to online load prediction. Following that, we propose a fully distributed algorithm for adapting the prediction result to guide task offloading. The experiments are performed with an artificial test case and a realistic application named Sam(oa)$$^2$$ 2 on three systems with different communication overhead. Our results confirm improvements for important use cases compared to previous solutions. Furthermore, this approach can support co-scheduling tasks across multiple applications.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Krawczyk, Henryk, and Bogdan Wiszniewski. "Quality of Distributed Applications." In Distributed and Parallel Systems, 33–36. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4615-4489-0_4.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Dvořák, Václav, and Rudolf Čejka. "Prototyping Cluster-Based Distributed Applications." In Distributed and Parallel Systems, 225–28. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4615-4489-0_28.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Kovacs, Jozsef, and Peter Kacsuk. "Server Based Migration of Parallel Applications." In Distributed and Parallel Systems, 30–37. Boston, MA: Springer US, 2002. http://dx.doi.org/10.1007/978-1-4615-1167-0_4.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Lovas, Róbert, Péter Kacsuk, Ákos Horváth, and Ándrás Horányi. "Application of P-Grade Development Environment in Meteorology." In Distributed and Parallel Systems, 109–16. Boston, MA: Springer US, 2002. http://dx.doi.org/10.1007/978-1-4615-1167-0_13.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Lee, DongWoo, and R. S. Ramakrishna. "Inter-round Scheduling for Divisible Workload Applications." In Distributed and Parallel Computing, 225–31. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11564621_25.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Xu, Shiming, Wenguang Chen, Weimin Zheng, Tao Wang, and Yimin Zhang. "Hierarchical Parallel Simulated Annealing and Its Applications." In Distributed and Parallel Computing, 293–300. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11564621_33.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Farkas, Zoltán, Zoltán Balaton, and Péter Kacsuk. "Supporting MPI applications in P-GRADE Portal." In Distributed and Parallel Systems, 55–64. Boston, MA: Springer US, 2007. http://dx.doi.org/10.1007/978-0-387-69858-8_6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Tóth, Márton László, Norbert Podhorszki, and Peter Kacsuk. "Load Balancing for P-Grade Parallel Applications." In Distributed and Parallel Systems, 12–20. Boston, MA: Springer US, 2002. http://dx.doi.org/10.1007/978-1-4615-1167-0_2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Yu, Shui, and Wanlei Zhou. "An Efficient Reliable Architecture for Application Layer Anycast Service." In Distributed and Parallel Computing, 376–85. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11564621_44.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Application Distribuée Parallèle"

1

Li, Yusen, Wentong Cai, and Xueyan Tang. "Application Layer Multicast in P2P Distributed Interactive Applications." In 2013 International Conference on Parallel and Distributed Systems (ICPADS). IEEE, 2013. http://dx.doi.org/10.1109/icpads.2013.62.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Faber, Clayton J., and Roger D. Chamberlain. "Application of Network Calculus Models to Heterogeneous Streaming Applications." In 2024 IEEE International Parallel and Distributed Processing Symposium Workshops (IPDPSW). IEEE, 2024. http://dx.doi.org/10.1109/ipdpsw63119.2024.00057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Popescu, Diana Andreea, Eliana-Dina Tirsa, Mugurel Ionut Andreica, and Valentin Cristea. "An Application-Assisted Checkpoint-Restart Mechanism for Java Applications." In 2013 IEEE 12th International Symposium on Parallel and Distributed Computing (ISPDC). IEEE, 2013. http://dx.doi.org/10.1109/ispdc.2013.33.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Sudarsan, R., and C. J. Ribbens. "Scheduling resizable parallel applications." In amp; Distributed Processing (IPDPS). IEEE, 2009. http://dx.doi.org/10.1109/ipdps.2009.5161077.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Fricke, Florian, Andre Werner, Keyvan Shahin, Florian Werner, and Michael Hubner. "Automatic Tool-Flow for Mapping Applications to an Application-Specific CGRA Architecture." In 2019 IEEE International Parallel and Distributed Processing Symposium Workshops (IPDPSW). IEEE, 2019. http://dx.doi.org/10.1109/ipdpsw.2019.00033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Gankevich, I., I. Petriakov, A. Gavrikov, D. Tereshchenko, and G. Mozhaiskii. "VERIFIABLE APPLICATION-LEVEL CHECKPOINT AND RESTART FRAMEWORK FOR PARALLEL COMPUTING." In 9th International Conference "Distributed Computing and Grid Technologies in Science and Education". Crossref, 2021. http://dx.doi.org/10.54546/mlit.2021.45.84.001.

Повний текст джерела
Анотація:
Fault tolerance of parallel and distributed applications is one of the concerns that becomes topical for large computer clusters and large distributed systems. For a long time the common solution to this problem was checkpoint and restart mechanisms implemented on operating system level, however, they are inefficient for large systems and now application-level checkpoint and restart is considered as a more efficient alternative. In this paper we implement application-level checkpoint and restart manually for the well-known parallel computing benchmarks to evaluate this alternative approach. We measure the overheads introduced by creating and restarting from a checkpoint, and the amount of effort that is needed to implement and verify the correctness of the resulting programme. Based on the results we propose generic framework for application-level checkpointing that simplifies the process and allows to verify that the application gives correct output when restarted from any checkpoint.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Xie, Jing, Wenxue Cheng, Tong Zhang, Qingkai Meng, Xuesong Li, Rong Li, and Fengyuan Ren. "Active and Adaptive Application-Level Flow Control for Latency Sensitive RPC Applications." In 2019 IEEE 25th International Conference on Parallel and Distributed Systems (ICPADS). IEEE, 2019. http://dx.doi.org/10.1109/icpads47876.2019.00056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Freire de Souza, Jaime, Hermes Senger, and Fabricio A. B. Silva. "Escalabilidade de Aplicações Bag-of-Tasks em Plataformas Heterogêneas." In XXXVII Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbrc.2019.7394.

Повний текст джерела
Анотація:
Bag-of-Tasks (BoT) applications are parallel applications composed of independent (i.e., embarrassingly parallel) tasks, which do not communicate with each other, may depend upon one or more input files, and can be executed in any order. BoT applications are very frequent in several scientific areas, and it is the ideal application class for execution on large distributed computing systems composed of hundreds to many thousands of computational resources. This paper focusses on the scalability of BoT applications running on large heterogeneous distributed computing systems organized as a master-slave platform. The results demonstrate that heterogeneous master-slave platforms can achieve higher scalability than homogeneous platforms for the execution of BoT applications, when the computational power of individual nodes in the homogeneous platform is fixed. However, when individual nodes of the homogeneous platform can scale-up, experiments show that master-slave platforms can achieve near linear speedups.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Fernando, Milinda, Dmitry Duplyakin, and Hari Sundar. "Machine and Application Aware Partitioning for Adaptive Mesh Refinement Applications." In HPDC '17: The 26th International Symposium on High-Performance Parallel and Distributed Computing. New York, NY, USA: ACM, 2017. http://dx.doi.org/10.1145/3078597.3078610.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Khan, Gulista, and Zabeeulla Zabeeulla. "The Smart Application Development in Real Time Parallel Applications with Industrial Automation." In 2023 International Conference on Distributed Computing and Electrical Circuits and Electronics (ICDCECE). IEEE, 2023. http://dx.doi.org/10.1109/icdcece57866.2023.10150756.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії