Letteratura scientifica selezionata sul tema "Calculs haute performance"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Calculs haute performance".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Calculs haute performance":

1

André, Jean-Claude, e Gérard Roucairol. "Compétitivité et calcul à haute performance". Annales des Mines - Réalités industrielles Novembre, n. 4 (21 ottobre 2021): 80–83. http://dx.doi.org/10.3917/rindu1.214.0080.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Postadjian, Tristan, Arnaud Le Bris, Hichem Sahbi e Clément Mallet. "Classification à très large échelle d'images satellites à très haute résolution spatiale par réseaux de neurones convolutifs". Revue Française de Photogrammétrie et de Télédétection, n. 217-218 (21 settembre 2018): 73–86. http://dx.doi.org/10.52638/rfpt.2018.418.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les algorithmes de classification constituent un outil essentiel pour le calcul de cartes d'occupation des sols. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris la classification d'images aériennes et satellites. Ce travail établit une stratégie quant à l'utilisation d'un réseau de neurone convolutif pour la classification d'images satellites à très haute résolution spatiale, couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays.
3

Beuraud, Alain. "Météo-France renouvelle sa confiance à Atos pour le calcul haute performance". La Météorologie, n. 107 (2019): 5. http://dx.doi.org/10.4267/2042/70543.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Gillet, Nicolas. "Champ géomagnétique et dynamique du noyau terrestre". Reflets de la physique, n. 69 (giugno 2021): 4–9. http://dx.doi.org/10.1051/refdp/202169004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le champ géomagnétique est principalement généré par les mouvements de métal liquide dans le noyau de la Terre par « effet dynamo », 3000 km sous nos pieds. Son évolution est suivie en continu au sol et, depuis vingt ans, par des satellites qui nous apportent des informations sans précédent. Notre compréhension de la « géodynamo » a évolué ces dernières années, grâce aussi aux importantes avancées des calculs numériques. L’information portée par les mesures magnétiques, couplée à celle des simulations hautes performances, nous aide à reconstituer la dynamique dans le noyau. Les champs d’applications sont vastes, la dynamique du noyau affectant par exemple la durée du jour ou le champ magnétique gouvernant la météo de l’espace.
5

Vintila, Ruxandra. "Kalideos Adam : Synthèse et retour d'expérience". Revue Française de Photogrammétrie et de Télédétection, n. 197 (22 aprile 2014): 112–18. http://dx.doi.org/10.52638/rfpt.2012.87.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet de recherche ADAM a été une coopération scientifique entre la France et la Roumanie dédiée à l'Assimilation de Données spatiales par Agro-Modélisation, dont le promoteur et commanditaire a été le Centre National d'Études Spatiales. Le papier présente les principales approches utilisées et les résultats novateurs obtenus dans ADAM: constitution de la première base de données de télédétection de référence, production d'une série temporelle d'images Spot XS de haute qualité, méthode de suivi de l'humidité surfacique du sol au long du cycle cultural à partir d'imagesradar, définition de la fréquence optimale de revisite pour l'agriculture à l'échelle de la parcelle, développement d'une stratégie performante d'assimilation variationnelle de données spatiales dans les modèles de fonctionnement du couvert végétal, calcul du modèle adjoint d'un modèle complexe de fonctionnement par différentiation automatique, améliorationde la modélisation du transfert radiatif par la prise en compte de l'agrégation des feuilles dans le couvert (modèle CLAMP).
6

TOUDERT, OUIZA, FRANÇIS AUGER, AZEDDINE HOUARI e MOURAD LAGHROUCHE. "NOUVELLE EXTRACTION DE POSITION DU ROTOR BASÉE SUR L'INJECTION DE TENSION À HAUTE FRÉQUENCE TOURNANTE POUR LES ENTRAÎNEMENTS DE MACHINES SYNCHRONES À AIMANTS PERMANENTS À VITESSE BASSE OU NULLE". REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 68, n. 2 (3 luglio 2023): 188–93. http://dx.doi.org/10.59277/rrst-ee.2023.68.2.12.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une nouvelle procédure pour l'extraction de la position du rotor des moteurs synchrones à aimants permanents à pôles saillants (PMSM) est présentée dans cet article. Un signal de rotation de porteur est injecté dans la machine pour mesurer son déplacement à l'aide d'un courant haute fréquence. Cette méthode réduit le temps de calcul, simplifie le modèle d'extraction et améliore l'erreur d'évaluation du déplacement. Cette méthode est efficace pour les moteurs synchrones à aimants permanents montés en surface (SPMSM) présentant de petites saillances magnétiques avec un enroulement de stator distribué de manière sinusoïdale alimenté par un onduleur de source de tension à modulation d'impulsions vectorielles spatiales (SVPWM). Les résultats expérimentaux ont prouvé que la méthode de compensation de déphasage en ligne pouvait évaluer le déplacement du rotor, la vitesse et le fonctionnement du contrôle vectoriel PMSM sans capteur avec une grande précision. Cette méthode a montré son efficacité pour les performances statiques et dynamiques dans diverses conditions de charge de fonctionnement.
7

Bourass, Mohamed, e Mohammed Bouachrine. "Étude structurale des systèmes dissymétriques de structure D-π-A à base de thiénopyrazine destinés aux cellules solaires organiques de type « bulk heterojunction » (BHJ)". Canadian Journal of Chemistry 97, n. 10 (ottobre 2019): 745–55. http://dx.doi.org/10.1139/cjc-2019-0053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Onze nouvelles molécules organiques de structure donneurs-espaceur-accepteurs (D-π-A) utilisées pour les cellules solaires organiques (OSC) basées sur la thiénopyrazine et le thiophène ont été étudiées par la théorie de la densité fonctionnelle (DFT) et la théorie de la densité fonctionnelle dépendante de temps DFT (TD-DFT), pour expliquer comment l’ordre de conjugaison influe sur les performances des cellules solaires. Le groupe accepteur d’électrons (ancrage) était composé de 2-cyanoacrylique pour tous les composés, tandis que l’unité donneuse d’électrons était variée et que son influence fut étudiée. Les résultats théoriques ont montré que les calculs TD-DFT, avec une fonction hybride d’échange – corrélation utilisant la méthode d’atténuation de Coulomb (CAM-B3LYP) en conjonction avec un modèle de solvatation à cycle continu polarisable (modèle de continuum polarisable, PCM) combinée avec la base 6-31G(d,p), était raisonnablement capable de prédire les énergies d’excitation, les spectres d’absorption et d’émission des molécules étudiées. Les niveaux d’énergie des orbitales moléculaires frontières (orbitale moléculaire occupée de plus haute énergie (HOMO) et orbitale moléculaire inoccupée de plus basse énergie (LUMO) de ces composés peuvent avoir un effet positif sur le processus d’injection et de régénération d’électrons. La tendance des lacunes calculées HOMO-LUMO se compare bien avec les données spectrales. En outre, les valeurs estimées de photovoltage en circuit ouvert (Voc) pour ces composés ont été présentées. L’étude des propriétés structurelles, électroniques et optiques de ces composés pourrait aider à concevoir des matériaux organiques photovoltaïques fonctionnels plus efficaces.
8

Lahlou, K., e M. Lachemi. "Prédiction de la charge ultime de colonnes mixtes constituées de tubes remplis de béton à haute résistance : étude comparative des codes de calcul". Canadian Journal of Civil Engineering 26, n. 4 (1 agosto 1999): 476–88. http://dx.doi.org/10.1139/l99-010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Columns are the preferred structural application of high and very high strength concrete. The confinement of this type of concrete in steel tubes presents definite advantages from both a technical and an economical perspective. However, the present design code provisions do not allow this type of material to be considered. In certain codes, the validity limits have recently been widened, but these limits remain below the present performance of high-strength concrete. The results of a large experimental program aiming at studying the behavior of concrete columns confined in steel tubes were used in order to compare predictions by different design methods, and thus verify their applicability beyond their conventional validity limits. Based on these experimental results, a new equation is proposed to predict the ultimate load of concrete columns confined in a steel tube.Key words: high-strength concrete, ultimate load, design codes, mixed columns, confinement, slenderness.[Journal translation]
9

PERROT, C. "Typologie d’exploitations construite par agrégation autour de pôles définis à dires d’experts. Proposition méthodologique et premiers résultats obtenus en Haute-Marne". INRAE Productions Animales 3, n. 1 (3 febbraio 1990): 51–66. http://dx.doi.org/10.20870/productions-animales.1990.3.1.4360.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La typologie d’exploitations agricoles est, pour les organismes départementaux de développement agricole, un investissement qui tient une place centrale dans l’organisation du conseil individuel aux agriculteurs. La typologie constitue un modèle de la diversité des exploitations qui permet d’orienter la recherche de références technico-économiques en s’appuyant sur l’étude de la complexité du fonctionnement des systèmes de production, puis de bâtir un dispositif pertinent pour comparer les performances des exploitations au référentiel ainsi structuré, afin de faciliter la formulation d’un diagnostic et d’un conseil adapté. La méthode typologique présentée dans cet article a été mise au point et testée dans le département de la Haute-Marne. Elle est basée sur la mobilisation des connaissances des experts de terrain. Ces connaissances sont recueillies au cours d’entretiens semi-directifs individuels, puis formalisées en pôles d’agrégation qui résument, à l’aide de quelques indicateurs discriminants, les caractéristiques essentielles des différents groupes d’exploitations identifiés par les experts. Cette formalisation est réalisée de manière itérative et interactive avec ceux-ci jusqu’à l’établissement d’un consensus sur la définition des pôles d’agrégation. Une clé typologique, étalonnée avec les experts sur des fichiers-tests, calcule un coefficient de ressemblance entre une exploitation à classer et chacun des pôles. L’exploitation est ensuite rattachée au pôle auquel elle ressemble le plus. L’ensemble des exploitations agrégées autour d’un pôle constitue un type. La procédure de classement se déroule donc de façon maîtrisée, transparente et explicite aux yeux des utilisateurs grâce à l’évaluation quantitative, donc nuancée, de la ressemblance entre exploitations et pôles, sur la base de quelques indicateurs familiers pour les experts. Chaque pôle peut être défini à l’aide d’indicateurs spécifiques, indépendamment des autres pôles, ce qui confère à la typologie la capacité à évoluer avec les systèmes de production : on pourra en effet modifier la définition d’un pôle pour un type qui évolue, ou créer de nouveaux pôles. Cette dernière propriété est particulièrement importante lorsque l’on considère la typologie non pas comme une image instantanée de la diversité des exploitations, mais comme un outil méthodologique pérenne au service du conseil individuel aux agriculteurs.
10

Naminata, KONÉ, N’DA Amalan Sylvie, BOGUHÉ Gnonléba Franck dit Hervis e BERTÉ Siaka. "Relation longueur-masse et paramètres de population de Synodontis bastiani Daget, 1948 (Mochokidae) dans le fleuve Bandama en aval du barrage de Taabo (Côte d’Ivoire)". Journal of Animal and Plant Sciences 51, n. 3 (31 marzo 2022): 9284–96. http://dx.doi.org/10.35759/janmplsci.v51-3.2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La présente étude avait pour objectif d’étudier les paramètres de croissance et d’exploitation de l’espèce Synodontis bastiani débarquée à N’dènou, en vue d’évaluer l’état du stock. Au total, 1428 poissons (9,7≤ LT ≤33 cm) ont été échantillonnés mensuellement de novembre 2019 à octobre 2020 dans les débarquements de la pêche artisanale commerciale. Les individus ont été mesurés (LT en cm), pesés (Mt en g) et les données traitées avec le logiciel FiSAT II. Les individus récoltés ont été regroupés en classes de taille d’intervalle 1 cm. Les valeurs des coefficients de corrélation (r) et d’allométrie (b) sont respectivement 0,97 et 2,71. Les valeurs estimées de la longueur asymptotique (L∞) et du coefficient de croissance (K) sont respectivement 35,18 cm et 0,27 an-1. L’indice de performance de croissance (Ø') et la longévité (tmax) calculés sont respectivement de 2,52 et de 11,11 ans. Le coefficient de mortalité totale (Z) est de 1,03 an-1. La mortalité naturelle (M) est de 0,73 an-1. La mortalité par pêche (F) est de 0,30 an-1. La taille à la première capture (Lc= L50), est de 12,34 cm. Le recrutement est continu toute l’année dans le fleuve Bandama. Cependant, les valeurs les plus hautes (17,03 %) et les plus basses (1,31 %) se situent respectivement dans les mois de juillet et novembre. Le taux d’exploitation calculé (E) s’élève à 0,29. Cette valeur est en dessous du niveau optimum d’exploitation E = 0,5 et du niveau d’exploitation maximale Emax = 0,64. S. bastiani se trouve en état de sous exploitation. ABSTRACT The objective of the present study was to investigate the growth and exploitation parameters of the Synodontis bastiani species landed in N'dènou, in order to assess the status of the stock. A total of 1428 fish (9.7≤ LT ≤33 cm) were sampled monthly from november 2019 to october 2020 in commercial artisanal fisheries landings. Individuals were measured (LT in cm), weighed (Mt in g) and the data processed with FiSAT II software. The individuals collected were grouped into size classes of 1 cm intervalles. The values of the correlation (r) and allometry (b) coefficients are 0.97 and 2.71 respectively. The estimated values of the asymptotic length (L∞) and the growth coefficient (K) are 35.18 cm and 0.27 yr-1, respectively. The calculated growth performance index (Ø') and longevity (tmax) are 2.52 and 11.11 years 9284 Journal of Animal & Plant Sciences (J.Anim.Plant Sci. ISSN 2071-7024) Kone et al., 2022 Vol.51 (3) : 9284-9296 https://doi.org/10.35759/JAnmPlSci.v51-3.2 respectively. The total mortality coefficient (Z) is 1.03 year-1. Natural mortality (M) is 0.73 yr1. Fishing mortality (F) is 0.30 yr-1. The size at first capture (Lc= L50) is 12.34 cm. Recruitment is continuous throughout the year in the Bandama River. However, the highest (17.03%) and lowest (1.31%) values are in the months of July and november respectively. The calculated exploitation rate (E) is 0.29. This value is below the optimum exploitation level E = 0.5 and the maximum exploitation level Emax = 0.64. S. bastiani is in a state of under exploitation

Tesi sul tema "Calculs haute performance":

1

Galtier, Jérôme. "Structures de données irrégulières et architectures haute performance : une étude du calcul numérique intensif par le partitionnement de graphes". Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les besoins en ressources informatiques des calculs numériques intensifs constituent l'un des problèmes concrets les plus délicats à gérer, notamment pour la résolution de systèmes linéaires creux issus de modèles en éléments finis. Dans un premier temps, nous unifions et complétons différents résultats reliant le calcul numérique haute-performance distribué au partitionnement de graphes. Sont étudiées la complexité de la résolution itérative d'un système linéaire creux dans le cadre du calcul parallèle distribué, la complexité de la résolution directe d'un système linéaire creux pour un calcul séquentiel, l'optimisation de la gestion de la mémoire dans un contexte de mémoire hiérarchique pour un calcul quelconque. Ainsi, la gestion quasi-optimale des ressources en temps (complexité du calcul) et en espace (mémoire) se ramène au problème de partitionnement des graphes. Nous nous penchons ensuite sur un modèle classique de structures de données régulières, les grilles rectangulaires multidimensionnelles, pour en extraire les propriétés du partitionnement optimal. Nous trouvons une inégalité isoperimetrique par arêtes, qui donne une forte intuition sur la nature des découpages optimaux, notamment pour les dimensions supérieures ou égales à trois. Enfin, nous tirons parti de cette intuition pour forcer l'obtention de découpages proches de cette forme générale pour les maillages éléments finis en dimension trois (structures de données irrégulières). Nous proposons un algorithme qui, est partir du maillage de surface d'un domaine (décrit par une liste de points et de facettes), construit un séparateur découpant le domaine en deux sous-domaines. Ceux-ci peuvent, a leur tour, être décrits et découpés. Sa mise en oeuvre est expérimentée sur de nombreux exemples, et a pu être intégrée à un solveur industriel de mécanique des fluides ; elle réduit drastiquement les ressources nécessaires à la génération des grands maillages
2

Guilloteau, Quentin. "Une approche autonomique à la régulation en ligne de systèmes HPC, avec un support pour la reproductibilité des expériences". Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALM075.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes de calcul haute performance (HPC) sont devenus de plus en plus complexes, et leurs performances ainsi que leur consommation d'énergie les rendent de moins en moins prévisibles.Cette imprévisibilité nécessite une gestion en ligne et prudente, afin garantir une qualité de service acceptable aux utilisateurs.Un tel problème de régulation se pose dans le contexte de l'intergiciel de grille de calcul CiGri qui vise à récolter les ressources inutilisées d'un ensemble de grappes via l'injection de tâches faiblement prioritaires.Une stratégie de récolte trop agressive peut conduire à la dégradation des performances pour tous les utilisateurs des grappes, tandis qu'une récolte trop timide laissera des ressources inutilisées et donc une perte de puissance de calcul.Il existe ainsi un compromis entre la quantité de ressources pouvant être récoltées et la dégradation des performances pour les tâches des utilisateurs qui en résulte.Ce compromis peut évoluer au cours de l'exécution en fonction des accords de niveau de service et de la charge du système.Nous affirmons que de tels défis de régulation peuvent être résolus avec des outils issus de l'informatique autonomique, et en particulier lorsqu'ils sont couplés à la théorie du contrôle.Cette thèse étudie plusieurs problèmes de régulation dans le contexte de CiGri avec de tels outils.Nous nous concentrerons sur la régulation de la récolte de ressources libres en fonction de la charge d'un système de fichiers distribué partagé et sur l'amélioration de l'utilisation globale des ressources de calcul.Nous évaluerons et comparerons également la réutilisabilité des solutions proposées dans le contexte des systèmes HPC.Les expériences réalisées dans cette thèse nous ont par ailleurs amené à rechercher de nouveaux outils et techniques pour améliorer le coût et la reproductibilité des expériences.Nous présenterons un outil nommé NixOS-Compose capable de générer et de déployer des environnements logiciels distribués reproductibles.Nous étudierons de plus des techniques permettant de réduire le nombre de machines nécessaires pour expérimenter sur des intergiciels de grappe, tels que CiGri, tout en garantissant un niveau de réalisme acceptable pour le système final déployé
High-Performance Computing (HPC) systems have become increasingly more complex, and their performance and power consumption make them less predictable.This unpredictability requires cautious runtime management to guarantee an acceptable Quality-of-Service to the end users.Such a regulation problem arises in the context of the computing grid middleware CiGri that aims at harvesting the idle computing resources of a set of cluster by injection low priority jobs.A too aggressive harvesting strategy can lead to the degradation of the performance for all the users of the clusters, while a too shy harvesting will leave resources idle and thus lose computing power.There is thus a tradeoff between the amount of resources that can be harvested and the resulting degradation of users jobs, which can evolve at runtime based on Service Level Agreements and the current load of the system.We claim that such regulation challenges can be addressed with tools from Autonomic Computing, and in particular when coupled with Control Theory.This thesis investigates several regulation problems in the context of CiGri with such tools.We will focus on regulating the harvesting based on the load of a shared distributed file-system, and improving the overall usage of the computing resources.We will also evaluate and compare the reusability of the proposed control-based solutions in the context of HPC systems.The experiments done in this thesis also led us to investigate new tools and techniques to improve the cost and reproducibility of the experiments.We will present a tool named NixOS-Compose able to generate and deploy reproducible distributed software environments.We will also investigate techniques to reduce the number of machines needed to deploy experiments on grid or cluster middlewares, such as CiGri, while ensuring an acceptable level of realism for the final deployed system
3

Ho, Minh Quan. "Optimisation de transfert de données pour les processeurs pluri-coeurs, appliqué à l'algèbre linéaire et aux calculs sur stencils". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM042/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prochaine cible de Exascale en calcul haute performance (High Performance Computing - HPC) et des récent accomplissements dans l'intelligence artificielle donnent l'émergence des architectures alternatives non conventionnelles, dont l'efficacité énergétique est typique des systèmes embarqués, tout en fournissant un écosystème de logiciel équivalent aux plateformes HPC classiques. Un facteur clé de performance de ces architectures à plusieurs cœurs est l'exploitation de la localité de données, en particulier l'utilisation de mémoire locale (scratchpad) en combinaison avec des moteurs d'accès direct à la mémoire (Direct Memory Access - DMA) afin de chevaucher le calcul et la communication. Un tel paradigme soulève des défis de programmation considérables à la fois au fabricant et au développeur d'application. Dans cette thèse, nous abordons les problèmes de transfert et d'accès aux mémoires hiérarchiques, de performance de calcul, ainsi que les défis de programmation des applications HPC, sur l'architecture pluri-cœurs MPPA de Kalray. Pour le premier cas d'application lié à la méthode de Boltzmann sur réseau (Lattice Boltzmann method - LBM), nous fournissons des techniques génériques et réponses fondamentales à la question de décomposition d'un domaine stencil itérative tridimensionnelle sur les processeurs clusterisés équipés de mémoires locales et de moteurs DMA. Nous proposons un algorithme de streaming et de recouvrement basé sur DMA, délivrant 33% de gain de performance par rapport à l'implémentation basée sur la mémoire cache par défaut. Le calcul de stencil multi-dimensionnel souffre d'un goulot d'étranglement important sur les entrées/sorties de données et d'espace mémoire sur puce limitée. Nous avons développé un nouvel algorithme de propagation LBM sur-place (in-place). Il consiste à travailler sur une seule instance de données, au lieu de deux, réduisant de moitié l'empreinte mémoire et cède une efficacité de performance-par-octet 1.5 fois meilleur par rapport à l'algorithme traditionnel dans l'état de l'art. Du côté du calcul intensif avec l'algèbre linéaire dense, nous construisons un benchmark de multiplication matricielle optimale, basé sur exploitation de la mémoire locale et la communication DMA asynchrone. Ces techniques sont ensuite étendues à un module DMA générique du framework BLIS, ce qui nous permet d'instancier une bibliothèque BLAS3 (Basic Linear Algebra Subprograms) portable et optimisée sur n'importe quelle architecture basée sur DMA, en moins de 100 lignes de code. Nous atteignons une performance maximale de 75% du théorique sur le processeur MPPA avec l'opération de multiplication de matrices (GEMM) de BLAS, sans avoir à écrire des milliers de lignes de code laborieusement optimisé pour le même résultat
Upcoming Exascale target in High Performance Computing (HPC) and disruptive achievements in artificial intelligence give emergence of alternative non-conventional many-core architectures, with energy efficiency typical of embedded systems, and providing the same software ecosystem as classic HPC platforms. A key enabler of energy-efficient computing on many-core architectures is the exploitation of data locality, specifically the use of scratchpad memories in combination with DMA engines in order to overlap computation and communication. Such software paradigm raises considerable programming challenges to both the vendor and the application developer. In this thesis, we tackle the memory transfer and performance issues, as well as the programming challenges of memory- and compute-intensive HPC applications on he Kalray MPPA many-core architecture. With the first memory-bound use-case of the lattice Boltzmann method (LBM), we provide generic and fundamental techniques for decomposing three-dimensional iterative stencil problems onto clustered many-core processors fitted withs cratchpad memories and DMA engines. The developed DMA-based streaming and overlapping algorithm delivers 33%performance gain over the default cache-based implementation.High-dimensional stencil computation suffers serious I/O bottleneck and limited on-chip memory space. We developed a new in-place LBM propagation algorithm, which reduces by half the memory footprint and yields 1.5 times higher performance-per-byte efficiency than the state-of-the-art out-of-place algorithm. On the compute-intensive side with dense linear algebra computations, we build an optimized matrix multiplication benchmark based on exploitation of scratchpad memory and efficient asynchronous DMA communication. These techniques are then extended to a DMA module of the BLIS framework, which allows us to instantiate an optimized and portable level-3 BLAS numerical library on any DMA-based architecture, in less than 100 lines of code. We achieve 75% peak performance on the MPPA processor with the matrix multiplication operation (GEMM) from the standard BLAS library, without having to write thousands of lines of laboriously optimized code for the same result
4

Pawlowski, Filip igor. "High-performance dense tensor and sparse matrix kernels for machine learning". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN081.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous développons des algorithmes à haute performance pour certains calculs impliquant des tenseurs denses et des matrices éparses. Nous abordons les opérations du noyau qui sont utiles pour les tâches d'apprentissage de la machine, telles que l'inférence avec les réseaux neuronaux profonds. Nous développons des structures de données et des techniques pour réduire l'utilisation de la mémoire, pour améliorer la localisation des données et donc pour améliorer la réutilisation du cache des opérations du noyau. Nous concevons des algorithmes parallèles à mémoire séquentielle et à mémoire partagée.Dans la première partie de la thèse, nous nous concentrons sur les noyaux tenseurs denses. Les noyaux tenseurs comprennent la multiplication tenseur-vecteur (TVM), la multiplication tenseur-matrice (TMM) et la multiplication tenseur-tendeur (TTM). Parmi ceux-ci, la MVT est la plus liée à la largeur de bande et constitue un élément de base pour de nombreux algorithmes. Nous proposons une nouvelle structure de données qui stocke le tenseur sous forme de blocs, qui sont ordonnés en utilisant la courbe de remplissage de l'espace connue sous le nom de courbe de Morton (ou courbe en Z). L'idée clé consiste à diviser le tenseur en blocs suffisamment petits pour tenir dans le cache et à les stocker selon l'ordre de Morton, tout en conservant un ordre simple et multidimensionnel sur les éléments individuels qui les composent. Ainsi, des routines BLAS haute performance peuvent être utilisées comme micro-noyaux pour chaque bloc. Les résultats démontrent non seulement que l'approche proposée est plus performante que les variantes de pointe jusqu'à 18%, mais aussi que l'approche proposée induit 71% de moins d'écart-type d'échantillon pour le MVT dans les différents modes possibles. Enfin, nous étudions des algorithmes de mémoire partagée parallèles pour la MVT qui utilisent la structure de données proposée. Nos résultats sur un maximum de 8 systèmes de prises montrent une performance presque maximale pour l'algorithme proposé pour les tenseurs à 2, 3, 4 et 5 dimensions.Dans la deuxième partie de la thèse, nous explorons les calculs épars dans les réseaux de neurones en nous concentrant sur le problème d'inférence profonde épars à haute performance. L'inférence sparse DNN est la tâche d'utiliser les réseaux sparse DNN pour classifier un lot d'éléments de données formant, dans notre cas, une matrice de caractéristiques sparse. La performance de l'inférence clairsemée dépend de la parallélisation efficace de la matrice clairsemée - la multiplication matricielle clairsemée (SpGEMM) répétée pour chaque couche dans la fonction d'inférence. Nous introduisons ensuite l'inférence modèle-parallèle, qui utilise un partitionnement bidimensionnel des matrices de poids obtenues à l'aide du logiciel de partitionnement des hypergraphes. Enfin, nous introduisons les algorithmes de tuilage modèle-parallèle et de tuilage hybride, qui augmentent la réutilisation du cache entre les couches, et utilisent un module de synchronisation faible pour cacher le déséquilibre de charge et les coûts de synchronisation. Nous évaluons nos techniques sur les données du grand réseau du IEEE HPEC 2019 Graph Challenge sur les systèmes à mémoire partagée et nous rapportons jusqu'à 2x l'accélération par rapport à la ligne de base
In this thesis, we develop high performance algorithms for certain computations involving dense tensors and sparse matrices. We address kernel operations that are useful for machine learning tasks, such as inference with deep neural networks (DNNs). We develop data structures and techniques to reduce memory use, to improve data locality and hence to improve cache reuse of the kernel operations. We design both sequential and shared-memory parallel algorithms. In the first part of the thesis we focus on dense tensors kernels. Tensor kernels include the tensor--vector multiplication (TVM), tensor--matrix multiplication (TMM), and tensor--tensor multiplication (TTM). Among these, TVM is the most bandwidth-bound and constitutes a building block for many algorithms. We focus on this operation and develop a data structure and sequential and parallel algorithms for it. We propose a novel data structure which stores the tensor as blocks, which are ordered using the space-filling curve known as the Morton curve (or Z-curve). The key idea consists of dividing the tensor into blocks small enough to fit cache, and storing them according to the Morton order, while keeping a simple, multi-dimensional order on the individual elements within them. Thus, high performance BLAS routines can be used as microkernels for each block. We evaluate our techniques on a set of experiments. The results not only demonstrate superior performance of the proposed approach over the state-of-the-art variants by up to 18%, but also show that the proposed approach induces 71% less sample standard deviation for the TVM across the d possible modes. Finally, we show that our data structure naturally expands to other tensor kernels by demonstrating that it yields up to 38% higher performance for the higher-order power method. Finally, we investigate shared-memory parallel TVM algorithms which use the proposed data structure. Several alternative parallel algorithms were characterized theoretically and implemented using OpenMP to compare them experimentally. Our results on up to 8 socket systems show near peak performance for the proposed algorithm for 2, 3, 4, and 5-dimensional tensors. In the second part of the thesis, we explore the sparse computations in neural networks focusing on the high-performance sparse deep inference problem. The sparse DNN inference is the task of using sparse DNN networks to classify a batch of data elements forming, in our case, a sparse feature matrix. The performance of sparse inference hinges on efficient parallelization of the sparse matrix--sparse matrix multiplication (SpGEMM) repeated for each layer in the inference function. We first characterize efficient sequential SpGEMM algorithms for our use case. We then introduce the model-parallel inference, which uses a two-dimensional partitioning of the weight matrices obtained using the hypergraph partitioning software. The model-parallel variant uses barriers to synchronize at layers. Finally, we introduce tiling model-parallel and tiling hybrid algorithms, which increase cache reuse between the layers, and use a weak synchronization module to hide load imbalance and synchronization costs. We evaluate our techniques on the large network data from the IEEE HPEC 2019 Graph Challenge on shared-memory systems and report up to 2x times speed-up versus the baseline
5

Vienne, Jérôme. "Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro
Manufacturers of computer clusters require tools to assist them in making better decisions in terms of architectural design. To address this need, in this thesis work, we focus on the specific issues of estimating computation times and InfiniBand network congestion. These two problems are often dealt with globally. However, an overall approach does not explain the reasons of performance loss related to architectural choices. So our approach was to conduct a more detailed study. In this thesis work, we focus on the following : 1) the estimation of computation time in a Grid, and 2) the estimation of communication times over Infiniband networks. To evaluate the computation time, the proposed approach is based on a static or semi-static analysis of the source code, by cutting it into blocks, before making a micro-benchmarking of these blocks on the targeted architecture. To estimate the communication time, a model of bandwidth sharing for Infiniband networks has been developed, allowing one to predict the impact related to concurrent communications. This model was then incorporated into a simulator to be validated on a set of synthetic communication graphs and on the application Socorro
6

Vienne, Jérôme. "Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00728156.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro.
7

Applencourt, Thomas. "Calcul haute performance & chimie quantique". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30162/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail de thèse est double : - Le développement et application de méthodes originales pour la chimie quantique ; - La mise au point de stratégies informatiques variées permettant la réalisation de simulations à grande échelle. Dans la première partie, les méthodes d'integration de configuration (IC) et monte carlo quantique (QMC) utilisées dans ce travail pour le calcul des propriétés quantiques sont présentées. Nous détaillerons en particulier la méthode d'\IC sélectionnée perturbativement (CISPI) que nous avons utilisée pour construire des fonctions d'onde d'essai pour le QMC. La première application concerne le calcul des énergies totales non-relativistes des atomes de transition de la série 3d ; ceci a nécessité l'implémentation de fonctions de base de type Slater et a permis d'obtenir les meilleures valeurs publiées à ce jour. La deuxième application concerne l'implémentation de pseudo-potentiels adaptés à notre approche QMC, avec pour application une étude concernant le calcul des énergies d'atomisation d'un ensemble de 55 molécules. La seconde partie traite des aspects calcule haute performance (HPC) avec pour objectif l'aide au déploiement des simulations à très grande échelle, aussi bien sous l'aspect informatique proprement dit - utilisation de paradigmes de programmation originaux, optimisation des processus monocœurs, calculs massivement parallèles sur grilles de calcul (supercalculateur et Cloud), outils d'aide au développement collaboratif \textit{et cætera} -, que sous l'aspect \emph{utilisateur} - installation, gestion des paramètres d'entrée et de sortie, interface graphique, interfaçage avec d'autres codes. L'implémentation de ces différents aspects dans nos codes-maison quantum pakcage et qmc=chem est également présentée
This thesis work has two main objectives: 1. To develop and apply original electronic structure methods for quantum chemistry 2. To implement several computational strategies to achieve efficient large-scale computer simulations. In the first part, both the Configuration Interaction (CI) and the Quantum Monte Carlo (QMC) methods used in this work for calculating quantum properties are presented. We then describe more specifically the selected CI approach (so-called CIPSI approach, Configuration Interaction using a Perturbative Selection done Iteratively) that we used for building trial wavefunctions for QMC simulations. As a first application, we present the QMC calculation of the total non-relativistic energies of transition metal atoms of the 3d series. This work, which has required the implementation of Slater type basis functions in our codes, has led to the best values ever published for these atoms. We then present our original implementation of the pseudo-potentials for QMC and discuss the calculation of atomization energies for a benchmark set of 55 organic molecules. The second part is devoted to the Hight Performance Computing (HPC) aspects. The objective is to make possible and/or facilitate the deployment of very large-scale simulations. From the point of view of the developer it includes: The use of original programming paradigms, single-core optimization process, massively parallel calculations on grids (supercomputer and Cloud), development of collaborative tools , etc - and from the user's point of view: Improved code installation, management of the input/output parameters, GUI, interfacing with other codes, etc
8

Perotin, Matthieu Martineau Patrick. "Calcul haute performance sur matériel générique". S. l. : S. n, 2008. http://theses.abes.fr/2008TOUR4022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Pérotin, Matthieu. "Calcul haute performance sur matériel générique". Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4022/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un double constat motive ce travail: la demande en calcul haute performance des chercheurs et la faible utilisation moyenne de la puissance des ressources pédagogiques. Le problème a été de répondre à cette demande, tout en préservant les ressources pédagogiques pour les enseignements. Une solution simple et transparente pour les utilisateurs finaux a été recherchée. Les besoins des utilisateurs ont mené à un cahier des charges dont la plupart des contraintes sont satisfaites par l'utilisation d'une pile logicielle judicieuse. D'autres ne peuvent être résolues par la seule utilisation de solutions existantes et définissent un problème d'ordonnancement, où il faut répartir les processus soumis sur les ressources des salles de TPs. Plusieurs heuristiques ont été proposées pour le résoudre. Elles ont été comparées à l'aide d'un simulateur, puis implémentée sur une plateforme expérimentale
Two facts are motivating this work: the demand for High Performance Computing of researchers and the low usage of the computing power of the pedagogic ressources. This thesis aims at giving an answer to the demand for HPC, while preserving the pedagogic ressources for the teaching. This work looked for a solution that would be simple and straightforward for the final users. Their needs and wishes lead to the definition of some specifications, in which most of the constraints could be satisfied with the use of a well designed software stack. Some others, however, cannot be satisfied with the use of existing solutions only, they define a new scheduling problem, in which the goal is to schedule the processes on the available ressources. This problem was studied and solved with various heurisitcs, which performances were compared with a simulator before being implemented in an experimental setup
10

Mena, morales Valentin. "Approche de conception haut-niveau pour l'accélération matérielle de calcul haute performance en finance". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0018/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les applications de calcul haute-performance (HPC) nécessitent des capacités de calcul conséquentes, qui sont généralement atteintes à l'aide de fermes de serveurs au détriment de la consommation énergétique d'une telle solution. L'accélération d'applications sur des plateformes hétérogènes, comme par exemple des FPGA ou des GPU, permet de réduire la consommation énergétique et correspond donc à un compromis architectural plus séduisant. Elle s'accompagne cependant d'un changement de paradigme de programmation et les plateformes hétérogènes sont plus complexes à prendre en main pour des experts logiciels. C'est particulièrement le cas des développeurs de produits financiers en finance quantitative. De plus, les applications financières évoluent continuellement pour s'adapter aux demandes législatives et concurrentielles du domaine, ce qui renforce les contraintes de programmabilité de solutions d'accélérations. Dans ce contexte, l'utilisation de flots haut-niveaux tels que la synthèse haut-niveau (HLS) pour programmer des accélérateurs FPGA n'est pas suffisante. Une approche spécifique au domaine peut fournir une réponse à la demande en performance, sans que la programmabilité d'applications accélérées ne soit compromise.Nous proposons dans cette thèse une approche de conception haut-niveau reposant sur le standard de programmation hétérogène OpenCL. Cette approche repose notamment sur la nouvelle implémentation d'OpenCL pour FPGA introduite récemment par Altera. Quatre contributions principales sont apportées : (1) une étude initiale d'intégration de c'urs de calculs matériels à une librairie logicielle de calcul financier (QuantLib), (2) une exploration d'architectures et de leur performances respectives, ainsi que la conception d'une architecture dédiée pour l'évaluation d'option américaine et l'évaluation de volatilité implicite à partir d'un flot haut-niveau de conception, (3) la caractérisation détaillée d'une plateforme Altera OpenCL, des opérateurs élémentaires, des surcouches de contrôle et des liens de communication qui la compose, (4) une proposition d'un flot de compilation spécifique au domaine financier, reposant sur cette dernière caractérisation, ainsi que sur une description des applications financières considérées, à savoir l'évaluation d'options
The need for resources in High Performance Computing (HPC) is generally met by scaling up server farms, to the detriment of the energy consumption of such a solution. Accelerating HPC application on heterogeneous platforms, such as FPGAs or GPUs, offers a better architectural compromise as they can reduce the energy consumption of a deployed system. Therefore, a change of programming paradigm is needed to support this heterogeneous acceleration, which trickles down to an increased level of programming complexity tackled by software experts. This is most notably the case for developers in quantitative finance. Applications in this field are constantly evolving and increasing in complexity to stay competitive and comply with legislative changes. This puts even more pressure on the programmability of acceleration solutions. In this context, the use of high-level development and design flows, such as High-Level Synthesis (HLS) for programming FPGAs, is not enough. A domain-specific approach can help to reach performance requirements, without impairing the programmability of accelerated applications.We propose in this thesis a high-level design approach that relies on OpenCL, as a heterogeneous programming standard. More precisely, a recent implementation of OpenCL for Altera FPGA is used. In this context, four main contributions are proposed in this thesis: (1) an initial study of the integration of hardware computing cores to a software library for quantitative finance (QuantLib), (2) an exploration of different architectures and their respective performances, as well as the design of a dedicated architecture for the pricing of American options and their implied volatility, based on a high-level design flow, (3) a detailed characterization of an Altera OpenCL platform, from elemental operators, memory accesses, control overlays, and up to the communication links it is made of, (4) a proposed compilation flow that is specific to the quantitative finance domain, and relying on the aforementioned characterization and on the description of the considered financial applications (option pricing)

Libri sul tema "Calculs haute performance":

1

International Symposium on High Performance Computing Systems and Applications (17th 2003 Sherbrooke, Quebec). Proceedings of the 17th Annual International Symposium on High Performance Computing Systems and Applications and the OSCAR Symposium : May 11-14, 2003, Sherbrooke, Quebec, Canada: Comptes rendus du 17ième Symposium annuel international sur les systèmes et applications du calcul de haute performance et le Symposium OSCAR : 11-14 mai 2003, Sherbrooke, Québec, Canada / éditeur, D. Sénéchal. A cura di Sénéchal David 1963-, National Research Council Canada e OSCAR Symposium (2003 : Sherbrooke, Quebec). Ottawa, Ont: NRC Research Press = Presses scientifiques du CNRC, 2003.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Yenké, Blaise Omer. Sauvegarde en parallèle d'applications HPC: Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques. Omniscriptum, 2011.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Calculs haute performance":

1

SHIOMI, Jun, e Tohru ISHIHARA. "Calcul de l’énergie minimale par ajustement des tensions d’alimentation et de seuil". In Systèmes multiprocesseurs sur puce 1, 277–307. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch10.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce chapitre présente un algorithme permettant de maintenir en permanence les processeurs au point de fonctionnement le plus économe en énergie en ajustant de manière appropriée la tension d’alimentation et la tension de seuil sous une contrainte de performance spécifique. Cet algorithme est applicable sur les processeurs haut de gamme, embarqués et ceux utilisés dans les nœuds de capteurs sans fil.
2

Hill, David R. C. "Chapitre 23. Simulations stochastiques et calcul à haute performance : la « parallélisation » des générateurs de nombres pseudo-aléatoires". In Modéliser & simuler – Tome 2, 725. Editions Matériologiques, 2014. http://dx.doi.org/10.3917/edmat.varen.2014.01.0725.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia