Academic literature on the topic 'Calcul haut performance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul haut performance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Calcul haut performance"

1

Sraïri, M. T., S. Chergui, H. Igueld, and Y. Sannito. "Performances des exploitations laitières familiales au Maroc : arguments pour l’amélioration du prix du lait à la ferme et de l’appui technique." Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, no. 4 (October 2, 2015): 183. http://dx.doi.org/10.19182/remvt.20560.

Full text
Abstract:
L’élevage bovin laitier au Maroc a connu ces dernières années une évolution mouvementée. Cette activité contribue pourtant fortement à l’approvisionnement des laiteries et des marchés urbains, ainsi qu’au maintien des conditions de vie en zone rurale. La présente étude a eu pour objectif de caractériser les performances techniques et économiques de l’élevage bovin au regard des contraintes qu’il doit surmonter. Dans une première partie, le prix de revient (coût de production) du lait a été étudié sur la base d’une enquête conduite dans 86 étables réparties dans les principaux bassins d’élevage du Maroc. Deux méthodes de calcul ont permis de porter un jugement sur la rentabilité de cette activité. Dans une seconde partie, les manques à gagner issus de rendements laitiers limités ont été caractérisés et mis en relation avec les rations ingérées par les vaches en lactation dans six étables, au cours de deux saisons successives (le printemps et l’été) dans une région favorable du pays (le périmètre irrigué du Gharb). Ce travail a souligné la faible rentabilité des fermes bovines et les marges d’amélioration en matière de rationnement, surtout pour les vaches à haut potentiel. Le conseil aux éleveurs permettant d’améliorer les pratiques d’alimentation des animaux et la revalorisation du prix de vente du lait à la ferme constituent deux conditions importantes du maintien durable de l’élevage bovin laitier au Maroc.
APA, Harvard, Vancouver, ISO, and other styles
2

Admin - JAIM, SIDIBE Seydou, PERAZZINI Chiara, KINKPE Charles, and BOYER Louis. "Performance de l’IRM bas champ dans la rupture du Ligament Croisé Antérieur du genou." Journal Africain d'Imagerie Médicale (J Afr Imag Méd). Journal Officiel de la Société de Radiologie d’Afrique Noire Francophone (SRANF). 13, no. 2 (November 17, 2021). http://dx.doi.org/10.55715/jaim.v13i2.226.

Full text
Abstract:
Objectives: Magnetic Resonance Imaging (MRI) remains the gold-standard examination for the diagnosis of Anterior Cruciate Ligament (ACL) complete rupture. Arthroscopy is an extremely sensitive and specific procedure for the evaluation of ACL, but it is invasive. Just few authors compared the performance of low field MRIs with the results of arthroscopy. We therefore proposed to compare the low-field MRI performance in the ACL complete ruptures with the results of the arthroscopy. Materials and Methods: This is a retrospective study of 30 patients with complete or partial ACL ruptures who underwent an MRI and an arthroscopy within one month after the MRI from July 18, 2016 to July 19, 2017. 15 patients underwent a high-field MRI, and 15 patients a low-field MRI. The results of arthroscopy were considered the gold standard. We calculated sensitivity, specificity, positive predictive value, and negative predictive value for low and high-field MRI. Results: The population consisted of 30 patients, 25 men and 5 women, average age 27.2-year-old (17-41). Low-field MRI (0.3T) revealed 11 out of 15 (73.3%) complete ruptures, compared to 10 out of 15 (66.6%) confirmed by the arthroscopy, 4 out of 15 (26.6%) partial ruptures, compared to 5 out of 15 (33.3%) confirmed by the arthroscopy. The sensitivity of MRI 0.3 T was 100%, the specificity at 80%, the VPP at 90.91%, the VPN at 100% (P value: 0 .001). The others 15 patients (15/30) were explored with a high-field MRI (1.5T) and it revealed 12 out of 15 (80%) complete ruptures, while arthroscopy showed 13 out of 15 (86.6%) complete ruptures, and 3 out of 15 (20%) partial ruptures versus 2 out of 15 (13.3%) demonstrated by arthroscopy. The sensitivity of MRI 1.5 T for the detection of complete rupture was 92.31%, the specificity 100%, the VPP 100%, the VPN at 66.67%, (P - value - 0 .001). Conclusion: The diagnostic performance of low-field MRI is comparable to high-field MRI for identification of LCA complete rupture and it can be added to other known low-field MRI benefits. RÉSUMÉ Objectifs : L’imagerie par résonance magnétique (IRM) reste à ce jour l’examen de référence pour le diagnostic de rupture du ligament croisé antérieur (LCA) du genou. L’arthroscopie est une procédure très sensible et spécifique, mais invasive. Nous nous sommes proposés de comparer les données de l’IRM bas champ dans la rupture complète du LCA aux résultats des arthroscopies. Matériels et méthodes : Il s’agissait d’une étude rétrospective, effectuée sur 30 patients porteurs d’une rupture du LCA complète ou partielle, ayant bénéficié d’une IRM et d’une arthroscopie. 15 patients avaient bénéficié d’une exploration par IRM haut champ, et 15 patients par bas champ. La durée de l’étude était de 12 mois, du 18 Juillet 2016 au 19 juillet 2017. Les résultats de l’arthroscopie ont été considérés comme le gold standard. Nous avons calculé la sensibilité, la spécificité, la valeur prédictive positive et la valeur prédictive négative de l’IRM bas champ. Ensuite la performance diagnostique a été évaluée aussi pour l’IRM haut champ. Résultats : 30 patients, 25 hommes et 5 femmes, âge moyen 27,2 ans (17-41 ans). Parmi les 15 patients qui ont reçu un examen dans une IRM bas champ (0.3T), on a observé 11 (73,3%) ruptures complètes, contre 10 (66,6%) confirmés par l’arthroscopie, 4 (26,6%) ruptures partielles, contre 5 (33,3%) démontrées à l’arthroscopie. La sensibilité de l’IRM 0.3 T pour la détection de la rupture complète s’élevait à 100%, la spécificité à 80%, la VPP à 90.91%, la VPN à 100% (P - value = 0 .001). Les autres 15 patients (15/30) ont été explorés avec une IRM haut champ (1.5T) et on a alors observé 12 (80%) ruptures complètes, alors que l’arthroscopie a démontré 13 (86,6%), et 3 (20%) ruptures partielles contre 2 (13,3%) démontrées par l’arthroscopie. La sensibilité de l’IRM 1.5 T pour la détection de la rupture complète s’élevait à 92.31%, la spécificité à 100%, la VPP à 100%, la VPN à 66.67%, (P - value = 0 .001). Conclusion : Une performance diagnostique de l’IRM à bas champ tout à fait comparable à l’IRM à haut champ pour l’identification des ruptures complètes de LCA peut être ajoutée aux avantages des IRM bas champ déjà connus.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Calcul haut performance"

1

Mena, morales Valentin. "Approche de conception haut-niveau pour l'accélération matérielle de calcul haute performance en finance." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0018/document.

Full text
Abstract:
Les applications de calcul haute-performance (HPC) nécessitent des capacités de calcul conséquentes, qui sont généralement atteintes à l'aide de fermes de serveurs au détriment de la consommation énergétique d'une telle solution. L'accélération d'applications sur des plateformes hétérogènes, comme par exemple des FPGA ou des GPU, permet de réduire la consommation énergétique et correspond donc à un compromis architectural plus séduisant. Elle s'accompagne cependant d'un changement de paradigme de programmation et les plateformes hétérogènes sont plus complexes à prendre en main pour des experts logiciels. C'est particulièrement le cas des développeurs de produits financiers en finance quantitative. De plus, les applications financières évoluent continuellement pour s'adapter aux demandes législatives et concurrentielles du domaine, ce qui renforce les contraintes de programmabilité de solutions d'accélérations. Dans ce contexte, l'utilisation de flots haut-niveaux tels que la synthèse haut-niveau (HLS) pour programmer des accélérateurs FPGA n'est pas suffisante. Une approche spécifique au domaine peut fournir une réponse à la demande en performance, sans que la programmabilité d'applications accélérées ne soit compromise.Nous proposons dans cette thèse une approche de conception haut-niveau reposant sur le standard de programmation hétérogène OpenCL. Cette approche repose notamment sur la nouvelle implémentation d'OpenCL pour FPGA introduite récemment par Altera. Quatre contributions principales sont apportées : (1) une étude initiale d'intégration de c'urs de calculs matériels à une librairie logicielle de calcul financier (QuantLib), (2) une exploration d'architectures et de leur performances respectives, ainsi que la conception d'une architecture dédiée pour l'évaluation d'option américaine et l'évaluation de volatilité implicite à partir d'un flot haut-niveau de conception, (3) la caractérisation détaillée d'une plateforme Altera OpenCL, des opérateurs élémentaires, des surcouches de contrôle et des liens de communication qui la compose, (4) une proposition d'un flot de compilation spécifique au domaine financier, reposant sur cette dernière caractérisation, ainsi que sur une description des applications financières considérées, à savoir l'évaluation d'options
The need for resources in High Performance Computing (HPC) is generally met by scaling up server farms, to the detriment of the energy consumption of such a solution. Accelerating HPC application on heterogeneous platforms, such as FPGAs or GPUs, offers a better architectural compromise as they can reduce the energy consumption of a deployed system. Therefore, a change of programming paradigm is needed to support this heterogeneous acceleration, which trickles down to an increased level of programming complexity tackled by software experts. This is most notably the case for developers in quantitative finance. Applications in this field are constantly evolving and increasing in complexity to stay competitive and comply with legislative changes. This puts even more pressure on the programmability of acceleration solutions. In this context, the use of high-level development and design flows, such as High-Level Synthesis (HLS) for programming FPGAs, is not enough. A domain-specific approach can help to reach performance requirements, without impairing the programmability of accelerated applications.We propose in this thesis a high-level design approach that relies on OpenCL, as a heterogeneous programming standard. More precisely, a recent implementation of OpenCL for Altera FPGA is used. In this context, four main contributions are proposed in this thesis: (1) an initial study of the integration of hardware computing cores to a software library for quantitative finance (QuantLib), (2) an exploration of different architectures and their respective performances, as well as the design of a dedicated architecture for the pricing of American options and their implied volatility, based on a high-level design flow, (3) a detailed characterization of an Altera OpenCL platform, from elemental operators, memory accesses, control overlays, and up to the communication links it is made of, (4) a proposed compilation flow that is specific to the quantitative finance domain, and relying on the aforementioned characterization and on the description of the considered financial applications (option pricing)
APA, Harvard, Vancouver, ISO, and other styles
2

Pasca, Bogdan Mihai. "Calcul flottant haute performance sur circuits reconfigurables." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00654121.

Full text
Abstract:
De plus en plus de constructeurs proposent des accélérateurs de calculs à base de circuits reconfigurables FPGA, cette technologie présentant bien plus de souplesse que le microprocesseur. Valoriser cette flexibilité dans le domaine de l'accélération de calcul flottant en utilisant les langages de description de circuits classiques (VHDL ou Verilog) reste toutefois très difficile, voire impossible parfois. Cette thèse a contribué au développement du logiciel FloPoCo, qui offre aux utilisateurs familiers avec VHDL un cadre C++ de description d'opérateurs arithmétiques génériques adapté au calcul reconfigurable. Ce cadre distingue explicitement la fonctionnalité combinatoire d'un opérateur, et la problématique de son pipeline pour une précision, une fréquence et un FPGA cible donnés. Afin de pouvoir utiliser FloPoCo pour concevoir des opérateurs haute performance en virgule flottante, il a fallu d'abord concevoir des blocs de bases optimisés. Nous avons d'abord développé des additionneurs pipelinés autour des lignes de propagation de retenue rapides, puis, à l'aide de techniques de pavages, nous avons conçu de gros multiplieurs, possiblement tronqués, utilisant des petits multiplieurs. L'évaluation de fonctions élémentaires en flottant implique souvent l'évaluation en virgule fixe d'une fonction. Nous présentons un opérateur générique de FloPoCo qui prend en entrée l'expression de la fonction à évaluer, avec ses précisions d'entrée et de sortie, et construit un évaluateur polynomial optimisé de cette fonction. Ce bloc de base a permis de développer des opérateurs en virgule flottante pour la racine carrée et l'exponentielle qui améliorent considérablement l'état de l'art. Nous avons aussi travaillé sur des techniques de compilation avancée pour adapter l'exécution d'un code C aux pipelines flexibles de nos opérateurs. FloPoCo a pu ainsi être utilisé pour implanter sur FPGA des applications complètes.
APA, Harvard, Vancouver, ISO, and other styles
3

Boyer, Alexandre. "Contributions to Computing needs in High Energy Physics Offline Activities : Towards an efficient exploitation of heterogeneous, distributed and shared Computing Resources." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2022. http://www.theses.fr/2022UCFAC108.

Full text
Abstract:
Repousser les limites de la science et fournir des services spécifiques et performant aux particuliers et aux communautés requiert des logiciels toujours plus sophistiqués, du matériel spécialisé et un besoin croissant en stockage et puissance de calcul. En ce début de décennie, nous entrons dans une phase informatique distribuée et hétérogène, où les ressources seront limitées et contraintes. Les communautés employant les grilles de calculs doivent adapter leur approche : (i) les applications doivent supporter diverses architectures ; (ii) les systèmes de gestion de charge de travail doivent gérer plusieurs modèles de traitement informatique et garantir la bonne exécution des applications, en dépit de quelconque contraintes liées aux systèmes sous-jacent. Cette thèse se concentre sur le dernier point évoqué au travers du cas de l’expérience LHCb.La collaboration LHCb s’appuie sur la World LHC Computing Grid, une infrastructure impliquant 170 centres de calcul répartis dans le monde, pour traiter un nombre croissant de simulations de Monte Carlo afin de reproduire les conditions expérimentales du projet. Malgré son envergure, l’infrastructure ne sera pas en mesure de couvrir les besoins en simulation des prochaines périodes d’exploitation du LHC en un temps raisonnable. En parallèle, les programmes scientifiques nationaux encouragent les communautés à s’approprier leurs supercalculateurs, des ordinateurs centralisant une puissance de calcul significative mais impliquant des défis d’intégration de taille.Au cours de cette thèse, nous proposons différentes approches pour approvisionner des ressources de calcul hétérogènes et distribuées en tâches LHCb. Nous avons développé des méthodes pour augmenter le débit d’exécution des programmes LHCb sur des grilles de calcul (+40.86%). Nous avons également conçu une série de solutions logicielles pour répondre aux limitations et contraintes que l’on peut retrouver dans des super calculateurs, comme le manque de connexion au réseau externe ou les dépendances des programmes par exemple. Nous avons appliqué ces solutions pour tirer profit de la puissance de calcul provenant de quatre partitions sur des super calculateurs classés au Top500
Pushing the boundaries of sciences and providing more advanced services to individuals and communities continuously demand more sophisticated software, specialized hardware, and a growing need for computing power and storage. At the beginning of the 2020s, we are entering a heterogeneous and distributed computing era where resources will be limited and constrained. Grid communities need to adapt their approach: (i) applications need to support various architectures; (ii) workload management systems have to manage various computing paradigms and guarantee a proper execution of the applications, regardless of the constraints of the underlying systems. This thesis focuses on the latter point through the case of the LHCb experiment.The LHCb collaboration currently relies on an infrastructure involving 170 computing centers across the world, the World LHC Computing Grid, to process a growing amount of Monte Carlo simulations, reproducing the experimental conditions of the experiment. Despite its huge size, it will be unable to handle simulations coming from the next LHC runs in a decent time. In the meantime, national science programs are consolidating computing resources and encourage using supercomputers, which provide a tremendous amount of computing power but pose higher integration challenges.In this thesis, we propose different approaches to supply distributed and shared computing resources with LHCb tasks. We developed methods to increase the number of computing resources allocations and their duration. It resulted in an improvement of the LHCb job throughput on a grid infrastructure (+40.86%). We also designed a series of software solutions to address highly-constrained environment issues that can be found in supercomputers, such as lack of external connectivity and software dependencies. We have applied those concepts to leverage computing power from four partitions of supercomputers ranked in the Top500
APA, Harvard, Vancouver, ISO, and other styles
4

Didelot, Sylvain. "Improving memory consumption and performance scalability of HPC applications with multi-threaded network communications." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0029/document.

Full text
Abstract:
La tendance en HPC est à l'accroissement du nombre de coeurs par noeud de calcul pour une quantité totale de mémoire par noeud constante. A large échelle, l'un des principaux défis pour les applications parallèles est de garder une faible consommation mémoire. Cette thèse présente une couche de communication multi-threadée sur Infiniband, laquelle fournie de bonnes performances et une faible consommation mémoire. Nous ciblons les applications scientifiques parallélisées grâce à la bibliothèque MPI ou bien combinées avec un modèle de programmation en mémoire partagée. En partant du constat que le nombre de connexions réseau et de buffers de communication est critique pour la mise à l'échelle des bibliothèques MPI, la première contribution propose trois approches afin de contrôler leur utilisation. Nous présentons une topologie virtuelle extensible et entièrement connectée pour réseaux rapides orientés connexion. Dans un contexte agrégeant plusieurs cartes permettant d'ajuster dynamiquement la configuration des buffers réseau utilisant la technologie RDMA. La seconde contribution propose une optimisation qui renforce le potentiel d'asynchronisme des applications MPI, laquelle montre une accélération de deux des communications. La troisième contribution évalue les performances de plusieurs bibliothèques MPI exécutant une application de modélisation sismique en contexte hybride. Les expériences sur des noeuds de calcul jusqu'à 128 coeurs montrent une économie de 17 % sur la mémoire. De plus, notre couche de communication multi-threadée réduit le temps d'exécution dans le cas où plusieurs threads OpenMP participent simultanément aux communications MPI
A recent trend in high performance computing shows a rising number of cores per compute node, while the total amount of memory per compute node remains constant. To scale parallel applications on such large machines, one of the major challenges is to keep a low memory consumption. This thesis develops a multi-threaded communication layer over Infiniband which provides both good performance of communications and a low memory consumption. We target scientific applications parallelized using the MPI standard in pure mode or combined with a shared memory programming model. Starting with the observation that network endpoints and communication buffers are critical for the scalability of MPI runtimes, the first contribution proposes three approaches to control their usage. We introduce a scalable and fully-connected virtual topology for connection-oriented high-speed networks. In the context of multirail configurations, we then detail a runtime technique which reduces the number of network connections. We finally present a protocol for dynamically resizing network buffers over the RDMA technology. The second contribution proposes a runtime optimization to enforce the overlap potential of MPI communications, showing a 2x improvement factor on communications. The third contribution evaluates the performance of several MPI runtimes running a seismic modeling application in a hybrid context. On large compute nodes up to 128 cores, the introduction of OpenMP in the MPI application saves up to 17 % of memory. Moreover, we show a performance improvement with our multi-threaded communication layer where the OpenMP threads concurrently participate to the MPI communications
APA, Harvard, Vancouver, ISO, and other styles
5

Martelli, Maxime. "Approche haut niveau pour l’accélération d’algorithmes sur des architectures hétérogènes CPU/GPU/FPGA. Application à la qualification des radars et des systèmes d’écoute électromagnétique." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS581/document.

Full text
Abstract:
A l'heure où l'industrie des semi-conducteurs fait face à des difficultés majeures pour entretenir une croissance en berne, les nouveaux outils de synthèse de haut niveau repositionnent les FPGAs comme une technologie de premier plan pour l'accélération matérielle d'algorithmes face aux clusters à base de CPUs et GPUs. Mais en l’état, pour un ingénieur logiciel, ces outils ne garantissent pas, sans expertise du matériel sous-jacent, l’utilisation de ces technologies à leur plein potentiel. Cette particularité peut alors constituer un frein à leur démocratisation. C'est pourquoi nous proposons une méthodologie d'accélération d'algorithmes sur FPGA. Après avoir présenté un modèle d'architecture haut niveau de cette cible, nous détaillons différentes optimisations possibles en OpenCL, pour finalement définir une stratégie d'exploration pertinente pour l'accélération d'algorithmes sur FPGA. Appliquée sur différents cas d'étude, de la reconstruction tomographique à la modélisation d'un brouillage aéroporté radar, nous évaluons notre méthodologie suivant trois principaux critères de performance : le temps de développement, le temps d'exécution, et l'efficacité énergétique
As the semiconductor industry faces major challenges in sustaining its growth, new High-Level Synthesis tools are repositioning FPGAs as a leading technology for algorithm acceleration in the face of CPU and GPU-based clusters. But as it stands, for a software engineer, these tools do not guarantee, without expertise of the underlying hardware, that these technologies will be harnessed to their full potential. This can be a game breaker for their democratization. From this observation, we propose a methodology for algorithm acceleration on FPGAs. After presenting a high-level model of this architecture, we detail possible optimizations in OpenCL, and finally define a relevant exploration strategy for accelerating algorithms on FPGA. Applied to different case studies, from tomographic reconstruction to the modelling of an airborne radar jammer, we evaluate our methodology according to three main performance criteria: development time, execution time, and energy efficiency
APA, Harvard, Vancouver, ISO, and other styles
6

Moy, Matthieu. "Modélisation à haut niveau d'abstraction pour les systèmes embarqués." Habilitation à diriger des recherches, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01054555.

Full text
Abstract:
Les systèmes embarqués modernes ont atteint un niveau de complexité qui fait qu'il n'est plus possible d'attendre les premiers prototypes physiques pour valider les décisions sur l'intégration des composants matériels et logiciels. Il est donc nécessaire d'utiliser des modèles, tôt dans le flot de conception. Les travaux présentés dans ce document contribuent à l'état de l'art dans plusieurs domaines. Nous présentons dans un premier temps de nouvelles techniques de vérification de programmes écrits dans des langages généralistes comme C, C++ ou Java. Dans un second temps, nous utilisons des outils de vérification formelle sur des modèles écrits en SystemC au niveau transaction (TLM). Plusieurs approches sont présentées, la plupart d'entre elles utilisent des techniques de compilations spécifiques à SystemC pour transformer le programme SystemC en un format utilisable par les outils. La seconde partie du document s'intéresse aux propriétés non-fonctionnelles des modèles~: performances temporelles, consommation électrique et température. Dans le contexte de la modélisation TLM, nous proposons plusieurs techniques pour enrichir des modèles fonctionnels avec des informations non-fonctionnelles. Enfin, nous présentons les contributions faites à l'analyse de performance modulaire (MPA) avec le calcul temps-réel (RTC). Nous proposons plusieurs connections entre ces modèles analytiques et des formalismes plus expressifs comme les automates temporisés et le langage de programmation Lustre. Ces connexion posent le problème théorique de la causalité, qui est formellement défini et résolu avec un algorithme nouveau dit de " fermeture causale ".
APA, Harvard, Vancouver, ISO, and other styles
7

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Full text
Abstract:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
APA, Harvard, Vancouver, ISO, and other styles
8

Vienne, Jérôme. "Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM043.

Full text
Abstract:
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro
Manufacturers of computer clusters require tools to assist them in making better decisions in terms of architectural design. To address this need, in this thesis work, we focus on the specific issues of estimating computation times and InfiniBand network congestion. These two problems are often dealt with globally. However, an overall approach does not explain the reasons of performance loss related to architectural choices. So our approach was to conduct a more detailed study. In this thesis work, we focus on the following : 1) the estimation of computation time in a Grid, and 2) the estimation of communication times over Infiniband networks. To evaluate the computation time, the proposed approach is based on a static or semi-static analysis of the source code, by cutting it into blocks, before making a micro-benchmarking of these blocks on the targeted architecture. To estimate the communication time, a model of bandwidth sharing for Infiniband networks has been developed, allowing one to predict the impact related to concurrent communications. This model was then incorporated into a simulator to be validated on a set of synthetic communication graphs and on the application Socorro
APA, Harvard, Vancouver, ISO, and other styles
9

Vienne, Jérôme. "Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00728156.

Full text
Abstract:
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro.
APA, Harvard, Vancouver, ISO, and other styles
10

Applencourt, Thomas. "Calcul haute performance & chimie quantique." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30162/document.

Full text
Abstract:
L'objectif de ce travail de thèse est double : - Le développement et application de méthodes originales pour la chimie quantique ; - La mise au point de stratégies informatiques variées permettant la réalisation de simulations à grande échelle. Dans la première partie, les méthodes d'integration de configuration (IC) et monte carlo quantique (QMC) utilisées dans ce travail pour le calcul des propriétés quantiques sont présentées. Nous détaillerons en particulier la méthode d'\IC sélectionnée perturbativement (CISPI) que nous avons utilisée pour construire des fonctions d'onde d'essai pour le QMC. La première application concerne le calcul des énergies totales non-relativistes des atomes de transition de la série 3d ; ceci a nécessité l'implémentation de fonctions de base de type Slater et a permis d'obtenir les meilleures valeurs publiées à ce jour. La deuxième application concerne l'implémentation de pseudo-potentiels adaptés à notre approche QMC, avec pour application une étude concernant le calcul des énergies d'atomisation d'un ensemble de 55 molécules. La seconde partie traite des aspects calcule haute performance (HPC) avec pour objectif l'aide au déploiement des simulations à très grande échelle, aussi bien sous l'aspect informatique proprement dit - utilisation de paradigmes de programmation originaux, optimisation des processus monocœurs, calculs massivement parallèles sur grilles de calcul (supercalculateur et Cloud), outils d'aide au développement collaboratif \textit{et cætera} -, que sous l'aspect \emph{utilisateur} - installation, gestion des paramètres d'entrée et de sortie, interface graphique, interfaçage avec d'autres codes. L'implémentation de ces différents aspects dans nos codes-maison quantum pakcage et qmc=chem est également présentée
This thesis work has two main objectives: 1. To develop and apply original electronic structure methods for quantum chemistry 2. To implement several computational strategies to achieve efficient large-scale computer simulations. In the first part, both the Configuration Interaction (CI) and the Quantum Monte Carlo (QMC) methods used in this work for calculating quantum properties are presented. We then describe more specifically the selected CI approach (so-called CIPSI approach, Configuration Interaction using a Perturbative Selection done Iteratively) that we used for building trial wavefunctions for QMC simulations. As a first application, we present the QMC calculation of the total non-relativistic energies of transition metal atoms of the 3d series. This work, which has required the implementation of Slater type basis functions in our codes, has led to the best values ever published for these atoms. We then present our original implementation of the pseudo-potentials for QMC and discuss the calculation of atomization energies for a benchmark set of 55 organic molecules. The second part is devoted to the Hight Performance Computing (HPC) aspects. The objective is to make possible and/or facilitate the deployment of very large-scale simulations. From the point of view of the developer it includes: The use of original programming paradigms, single-core optimization process, massively parallel calculations on grids (supercomputer and Cloud), development of collaborative tools , etc - and from the user's point of view: Improved code installation, management of the input/output parameters, GUI, interfacing with other codes, etc
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Calcul haut performance"

1

International Symposium on High Performance Computing Systems and Applications (17th 2003 Sherbrooke, Quebec). Proceedings of the 17th Annual International Symposium on High Performance Computing Systems and Applications and the OSCAR Symposium : May 11-14, 2003, Sherbrooke, Quebec, Canada: Comptes rendus du 17ième Symposium annuel international sur les systèmes et applications du calcul de haute performance et le Symposium OSCAR : 11-14 mai 2003, Sherbrooke, Québec, Canada / éditeur, D. Sénéchal. Edited by Sénéchal David 1963-, National Research Council Canada, and OSCAR Symposium (2003 : Sherbrooke, Quebec). Ottawa, Ont: NRC Research Press = Presses scientifiques du CNRC, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Yenké, Blaise Omer. Sauvegarde en parallèle d'applications HPC: Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques. Omniscriptum, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Calcul haut performance"

1

SHIOMI, Jun, and Tohru ISHIHARA. "Calcul de l’énergie minimale par ajustement des tensions d’alimentation et de seuil." In Systèmes multiprocesseurs sur puce 1, 277–307. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch10.

Full text
Abstract:
Ce chapitre présente un algorithme permettant de maintenir en permanence les processeurs au point de fonctionnement le plus économe en énergie en ajustant de manière appropriée la tension d’alimentation et la tension de seuil sous une contrainte de performance spécifique. Cet algorithme est applicable sur les processeurs haut de gamme, embarqués et ceux utilisés dans les nœuds de capteurs sans fil.
APA, Harvard, Vancouver, ISO, and other styles
2

Hill, David R. C. "Chapitre 23. Simulations stochastiques et calcul à haute performance : la « parallélisation » des générateurs de nombres pseudo-aléatoires." In Modéliser & simuler – Tome 2, 725. Editions Matériologiques, 2014. http://dx.doi.org/10.3917/edmat.varen.2014.01.0725.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"Afro-Vulnerabilities and the Aesthetics of Slow Death." In Indenture Aesthetics, 89–122. Duke University Press, 2024. https://doi.org/10.1215/9781478060321-003.

Full text
Abstract:
This chapter examines overlapping regimes of racialized labor by reading Sharlene Khan’s project when the moon waxes red in relationship to Mohau Modisakeng’s performance art and aesthetic practices. Whereas Khan takes us on a visual and affective journey through the sugarcane fields, emphasizing the experience of the Afro-Indian female subject in the afterlife of indentureship, Modisakeng focuses on the figure of the African migrant laborer in relationship to the coal mining industry. This chapter situates vulnerability as a feminine and feminized orientation toward the world and examines the making and unmaking of black/ened life within the death worlds of the sugarcane plantation and the coal mine, two geographical spaces indicative of slow death. The queer aesthetic of slow death brings time to a halt as an urgent call to deal with the colonial apartheid past and the ongoing violence that continues to shape black/ened life in postapartheid South Africa.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Calcul haut performance"

1

Femenia, Jose. "The Siberian Arctic Ocean Highway – Redefining the World’s Trading Patterns." In SNAME 7th International Conference and Exhibition on Performance of Ships and Structures in Ice. SNAME, 2006. http://dx.doi.org/10.5957/icetech-2006-129.

Full text
Abstract:
Over the centuries, the world’s trading patterns have changed due to population migration and growth, climate changes, politics and technological advances. Some trading patterns and routes have declined and others have emerged. This paper will investigate the technical, environmental and economic potential of using an Arctic Ocean route as a substitute for present day northern hemisphere, long-haul, container shipping routes. Issues such as the impact of climate changes on the potential for using the Arctic as an ocean highway will be noted. Proposed routes and ports of call as well as various model containerships movements will be investigated. Issues such as basic ship and terminal design, transit times, and ship induced emissions will also be addressed. The use of nuclear power for ship propulsion will be considered. The paper will concentrate on discussing the shipment of containers to and from the East and West Coasts of the United States, Western Europe, and the Far East with large containerships in liner service using the Arctic Ocean highway and smaller feeder ships moving the containers from four, specifically selected, ports to final destination ports. Winter shipping conditions as well as summer shipping conditions will be considered. Problems, advantages and limitations of the proposed system will be discussed.
APA, Harvard, Vancouver, ISO, and other styles
2

Wei, Fan, Yunhan Xiao, and Shijie Zhang. "Latent Heat Recovery and Performance Studies for an Open Cycle Absorption Heat Transformer." In ASME Turbo Expo 2008: Power for Land, Sea, and Air. ASMEDC, 2008. http://dx.doi.org/10.1115/gt2008-51105.

Full text
Abstract:
Latent heat recovery from the flue gas has received considerable attention due to its large quantities especially in gas boilers or humid gas turbine cycles (such as HAT cycle). Furthermore, the cost of water consumption can be reduced in gas turbine systems by water recovery along with latent heat recovery. In this paper, an open cycle absorption heat transformer (OAHT) is developed for latent heat and water recovery from flue gas. The exhaust gas is used as the heat source to boil the weak solution and water-calcium chloride as the desiccant to absorb water. The discharged heat from absorber can be used for district heating. Comparing with the conventional condensation method, the heat and water recovery from the OAHT is analyzed by employing the flow sheet simulation method. The results show that under the same working condition, the amount of recovered heat in the OAHT is 1.6 times that in the condensation method, the latent heat is 2.8 times; the amount of water recovery increases by 7.3 fold. The performance and the parametric analysis of the OAHT are also developed. The Coefficient of Performance (COP) of the system is 0.65. The discharged heat from the absorber is 4.807kW at the temperature of 50°C which can be used for district heating. Parametric analysis show that COP will increase with high gas temperature and humidity, high cooling water temperature and flow rate, high strong solution concentration and high flow rate of working fluid; while high flow rate of gas and weak solution concentration will make COP decrease. The advantages of the OAHT are demonstrated in the water and latent heat recovery. Comparing with the closed cycle absorption heat transformer, the OAHT has more advantages because of the relative similar COP and the simple configuration which can reduce the system cost.
APA, Harvard, Vancouver, ISO, and other styles
3

Ågren, Niklas D., Mats O. Westermark, Michael A. Bartlett, and Torbjörn Lindquist. "First Experiments on an Evaporative Gas Turbine Pilot Power Plant: Water Circuit Chemistry and Humidification Evaluation." In ASME Turbo Expo 2000: Power for Land, Sea, and Air. American Society of Mechanical Engineers, 2000. http://dx.doi.org/10.1115/2000-gt-0168.

Full text
Abstract:
The evaporative gas turbine (EvGT), also known as the humid air turbine (HAT) cycle, is a novel advanced gas turbine cycle that has attracted considerable interest for the last decade. This high efficiency cycle shows the potential to be competitive with Diesel engines or combined cycles in small and intermediate scale plants for power production — and/or cogeneration. A 0.6 MW natural gas fired EvGT pilot plant has been constructed by a Swedish national research group in cooperation between universities and industry. The plant is located at the Lund Institute of Technology, Lund, Sweden. The pilot plant uses a humidification tower with metallic packing in which heated water from the flue gas economizer is brought into direct counter current contact with the pressurized air from the compressor. This gives an efficient heat recovery and thereby a thermodynamically sound cycle. As the hot sections in high temperature gas turbines are sensitive to particles and alkali compounds, water quality issues need to be carefully considered. As such, apart from evaluating the thermodynamic and part load performance characteristics of the plant, and verifying the operation of the high pressure humidifier, much attention is focused on the water chemistry issues associated with the recovery and reuse of condensate water from the flue gas. A water treatment system has been designed and integrated into the pilot plant. This paper presents the first water quality results from the plant. The experimental results show that the condensate contains low levels of alkali and calcium, around 2 mg/l Σ(K,Na,Ca), probably originating from the unfiltered compressor intake. About 14 mg/l NO2− + NO3− comes from condensate absorption of flue gas NOx. Some Cu is noted, 16 mg/l, which originates from copper corrosion of the condenser tubes. After CO2-stripping, condensate filtration and a mixed bed ion exchanger, the condensate is of suitable quality for reuse as humidification water. The need for large quantities of demineralized water has by many authors been identified as a drawback for the evaporative cycle. However, by cooling the humid flue gas, the recovery of condensed water cuts the need of water feed. A self supporting water circuit can be achieved, with no need for any net addition of water to the system. In the pilot plant, this was achieved by cooling the flue gas to around 35°C.
APA, Harvard, Vancouver, ISO, and other styles
4

Vierling, Matthieu, Frederic Geiger, Jean-Francois Brilhac, Sophie Dorge, David Habermacher, Habiba Nouali, Jean-Louis Guichard, et al. "Novel Desulfurization Concept Using a Regenerable Adsorbent." In ASME Turbo Expo 2020: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2020. http://dx.doi.org/10.1115/gt2020-16222.

Full text
Abstract:
Abstract Sulfur oxides, abbreviated to SOx, refer to both sulfur dioxide (SO2) and sulfur trioxide (SO3) that are gaseous pollutants emitted by the combustion of low-grade fuels, including heavy oils, sour gases and coal. Current Flue Gas Desulfurization (FGD) technologies mainly use limestone or CaO (quicklime) as sulfur scavenger. They consume water and produce significant stocks of calcium sulfate, a non-regenerable solid that has limited market outlets and is sometimes considered as waste. To tackle this problem, a multi-partner team has launched a two-phase program in order to develop a new, regenerative FGD concept. This partnership includes a GE Power team (Belfort, France), three research laboratories (IS2M-MPC, LGRE from University of Haute Alsace, Mulhouse and ICB-UTBM-LERMPS, Belfort), a ceramic material testing center (ICAR, Moncel les Luneville, France) and a consultancy organization skilled in materials (Zephir Alsace, Mulhouse). The main objective was to design a regenerable adsorbent that would not release any solid waste but would allow instead the recovery of sulfur in the form of H2SO4 (sulfuric acid) which is a valuable chemical commodity. A first subprogram, executed from September 2012 through March 2015 and called “DeSOx New Gen”, enabled the different partners to identify and test at lab scale a regenerable and durable adsorbent. This adsorbent, used initially in powder form, involved an organized mesoporous silica (SiO2), which was used as a support and was impregnated with copper oxide (CuO) likely to undergo reversible sulfation. Such binary system proved capable of achieving large numbers of successive adsorption/regeneration cycles (more than fifteen attained in the lab) without undergoing substantial activity loss. A second subprogram, initiated in September 2017 and called “AdSOx”, aimed to obtain and test a bead-shaped form of the previously developed adsorbent in view of industrial applications. This product in bead-shaped adsorbent was then evaluated in 2019 in a pilot combustion rig, the flue gases of which were representative of a real industrial combustion installation in terms of SOx, NOx, CO, CO2, H2O and PM (particulate matter). In these rig tests, the performances of the adsorbent for the capture of SOx, including its capability to be regenerated for multi-cyclic use, have been assessed in fluidized bed and most recently in fixed bed conditions. This paper outlines the most significant steps and outcomes of this collaborative two-phase development program. It also illustrates the interesting capabilities of mesoporous materials for the design of highly active sorption and catalytic systems.
APA, Harvard, Vancouver, ISO, and other styles
5

Stensrud, Rune, Sigmund Valaker, Aleksander Simonsen, and Olav Rune Nummedal. "Situation awareness training as a prerequisite for handling complexity in Human-autonomy teaming: Demonstration and experiment proposal." In Intelligent Human Systems Integration (IHSI 2024) Integrating People and Intelligent Systems. AHFE International, 2024. http://dx.doi.org/10.54941/ahfe1004514.

Full text
Abstract:
Human-autonomy teaming (HAT) is characterized by high degrees of interdependence between humans and machine (Lyons, 2021). This underscore the need for human-autonomy teams (HATs) defined as “at least one human working cooperatively with at least one autonomous agent” (McNeese et al., 2018, p.262). However, this interdependence may vary, for example according to how well the human (s) and machine (s) may solve subtasks autonomously. Drawing on the extant literature on human decision making, the ability to project future events is essential to prioritize and use both human and machine resources in ways that accomplish tasks (Endsley, 2000). The question arises as to how humans and machines can be enabled to make such projections together. We here focus on the human’s part of this information processing and decision making and the needs for for adjusting the mode of collaboration due to the changes in the environment (Lundberg & Johansson, 2021; Stensrud, Mikkelsen & Valaker, 2023). The human may or may not take the initiative to change the mode of collaboration, such as in engaging in more detailed collaboration. What may ensure that the human is enabled and do take the initiative to change the mode of collaboration? Both cognitive, emotional as well as issues such as task load may influence the degree to which the human changes its mode from loose to tight control and/or input or vice versa (Endsley & Garland, 2000) what we may also call nuances to configurations of the team architecture (O’Neill et al., 2023). Recent reviews indicate that maintaining awareness is critical, yet can be impaired over prolonged time (Casner & Hutchins, 2019). Specifically we concentrate on the situation awareness (SA) level 3, projecting future state of elements in the environment and the switching from one way of collaborating to another. In short, in our example this concerns the ability to foresee a change from a relatively stable environment with easily observable entities to one that has more complexity regarding the entities to observe and their interrelations. Our reasoning is that if the human are able to form predictions of changes in the environment it can also be enabled to change its way of collaborating. Given the detrimental effects of time-pressure and task-load and fatigue etc. that may impede the forming of sound predictions (Endsley & Garland, 2000), we propose preparation that reduce the risk of such impediments and that empower the human to make predictions.Automation can [traditionally] be defined as that in which “the system functions with no/little human operator involvement: however, the system performance is limited to the specific actions it has been designed to do”. Endsley (2015, “Autonomous Horizons” (p. 3)). Autonomy is often characterized in terms of the degree to which the system has the capability to achieve mission goals independently, performing well under significant uncertainties, for extended periods of time, with limited or non-existent communication, and with the ability to compensate for system failures, all without external intervention. Autonomy can be thought of as a significant extension of automation in which very high-level mission-oriented commands will be successfully executed under a variety of possibly not fully anticipated circumstances […] given adequate independence and task execution authority. Autonomy can be considered as well designed and highly capable automation.[..] over the next 30 years […] we will see a gradual evolution of system control, with intermediate levels of autonomy being applied to various functions. As the autonomy developed becomes more capable over time, can handle a greater range of functions, and can handle greater ranges of variability in the environment, systems will slowly evolve to more autonomous operations for longer periods of time. (Endsley (2015), «Autonomous Horizons» (p. 4)).Having mapped the interdependencies we indicate ways of formally testing the influence of SA level 3 training on human adaptivity. Firstly we suggest an inductive approach whereby a group of humanoperators are followed through their learning and familiarization with the system. Included are time spent on making plans for and contingencies plans for the employment of the autonomous system.During phases of teaming with the system we will record the input the humans make to their system interface. We will categorize what type of “orders” and other input the humans make. We willcategorize them according to the delegating supervisor approach (Levels of automation) versus more collaborative (mixed initiative and coactive design) types of approaches. This mapping willenable us to describe potential learning cycles in the familiarization and make hypothesis about the role of SA level 3 training.Our future research endeavors will embark on this and report the empirical results in the near future.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography