To see the other types of publications on this topic, follow the link: Codes de calcul chaînés.

Dissertations / Theses on the topic 'Codes de calcul chaînés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 46 dissertations / theses for your research on the topic 'Codes de calcul chaînés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Balde, Oumar. "Calage bayésien sous incertitudes des outils de calcul scientifique couplés : application en simulation numérique du combustible." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES035.

Full text
Abstract:
Dans le cadre des études des comportements des systèmes physiques complexes tels que les réacteurs nucléaires, les simulateurs numériques sont devenus des outils essentiels pour la modélisation, l'analyse, la compréhension et la prévision des phénomènes physiques impliqués. Ces simulateurs prennent souvent un grand nombre de paramètres en entrée, lesquels sont souvent entachés d'incertitudes, ce qui se traduit par des sorties également incertaines. Ainsi, il est crucial avant toute utilisation dans un contexte industriel, de quantifier et de réduire les différentes sources d'incertitude. Le processus de calage de modèle vise ainsi à réduire et à quantifier au mieux les incertitudes des paramètres en entrée, en se basant sur les données expérimentales et simulées disponibles. Il existe deux types de calage de modèle : le calage déterministe et le calage bayésien. Le calage bayésien est une méthode qui repose sur une approche probabiliste pour quantifier les incertitudes paramétriques par des distributions de probabilité. Dans cette thèse, nous nous sommes intéressés au calage bayésien conditionnel de deux modèles numériques chaînés simulant le comportement du combustible dans un réacteur à eau pressurisée. Plus précisément, l'objectif est de réaliser un calage bayésien des paramètres incertains du second modèle conditionnellement à toute l'incertitude a posteriori des paramètres incertains du premier modèle numérique. Pour ce faire, nous avons proposé une nouvelle méthodologie d'inférence bayésienne basée sur des processus gaussiens et appelée GP-LinCC (pour Gaussian Process and Linearization-based Conditional Calibration). La mise en œuvre pratique de cette nouvelle approche a nécessité le développement d'une méthode d'analyse de sensibilité afin de sélectionner préalablement les paramètres à caler du second modèle tout en prenant en compte toute l'incertitude des paramètres du premier modèle. Cette méthode d'analyse de sensibilité globale en support au calage conditionnel est basée sur des mesures de dépendance de type HSIC (Hilbert-Schmidt Independence Criterion). Enfin, ces deux contributions méthodologiques ont été appliquées au simulateur chaîné ALCYONE-CARACAS afin de quantifier les incertitudes paramétriques du code CARACAS simulant le comportement des gaz de fission conditionnellement à l'incertitude de la conductivité thermique du modèle thermique
Nowadays, numerical models have become essential tools for modeling, understanding, analyzing and predicting the physical phenomena involved in complex physical systems such as nuclear power plants. Such numerical models often take a large number of uncertain input parameters, thus leading to uncertain outputs as well. Before any industrial use of those numerical models, an important step is therefore to reduce and quantify these uncertainties as much as possible. In this context, the goal of model calibration is to reduce and quantify the uncertainties of the input parameters based on available experimental and simulated data. There are two types of model calibration: deterministic calibration and Bayesian calibration. The latter quantifies parameter uncertainties by probability distributions. This thesis deals with the conditional Bayesian calibration of two chained numerical models. The objective is to calibrate the uncertain parameters of the second model while taking into account the uncertain parameters of the first model. To achieve this, a new Bayesian inference methodology called GP-LinCC (Gaussian Process and Linearization-based Conditional Calibration) was proposed. In practice, the deployment of this new approach has required a preliminary step of global sensitivity analysis to identify the most significant input parameters to calibrate in the second model, while considering the uncertainty of the parameters of the first model. To do this, an integrated version of the HSIC (Hilbert-Schmidt Independence Criterion) was used to define well-suited sensitivity measures and the theoretical properties of their nested Monte Carlo estimators were investigated. Finally, these two methodological contributions have been applied to the multi-physics application called ALCYONE, to quantify the uncertain parameters of the CARACAS code (second model) simulating the behavior of fission gases in the pressurized water reactor conditionally on the uncertainty of the parameter conductivity of the thermal model (first model)
APA, Harvard, Vancouver, ISO, and other styles
2

Skersys, Gintaras. "Calcul du groupe d'automorphismes des codes : détermination de l'équivalence des codes." Limoges, 1999. http://www.theses.fr/1999LIMO0021.

Full text
Abstract:
Nous presentons dans ce travail un algorithme pour calculer les groupes de permutations et d'automorphismes d'un code et pour determiner l'equivalence et l'equivalence par permutation de deux codes. Il est base sur la methode des partitions de jeffrey s. Leon et sur l'algorithme de separation du support de nicolas sendrier. La methode des partitions de leon nous semble tres technique, nous avons donc essaye de la clarifier en la presentant d'une maniere differente de celle de leon. Notre algorithme est limite par la dimension du hull (l'intersection du code avec son dual) des codes concernes qui doit etre inferieure a une vingtaine. Si c'est le cas, notre algorithme fonctionne efficacement, par exemple, pour les codes lineaires binaires de longueur jusqu'a 10000. De plus, nous avons etudie la dimension du hull des codes cycliques. Nous avons montre que la dimension moyenne du hull des codes cycliques de longueur n donnee sur un corps fini f q donne est soit nulle, soit de l'ordre de n, et elle est si et seulement si n est un diviseur d'un entier de la forme q m + 1, m 0. Nous avons etudie l'ensemble des diviseurs des entiers de cette forme.
APA, Harvard, Vancouver, ISO, and other styles
3

Montan, Séthy. "Sur la validation numérique des codes de calcul industriels." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00913570.

Full text
Abstract:
L'étude de la qualité numérique est cruciale pour les codes industriels tels que ceux développés à EDF R&D. C'est d'autant plus important dans le contexte actuel où les simulations numériques sont faites sur des architectures pouvant exécuter des milliards d'opérations flottantes par seconde. Des études ont montré que la bibliothèque CADNA est un outil adapté à la validation numérique des codes industriels. Toutefois, CADNA ne peut être utilisée simplement sur des grands codes industriels, ces derniers faisant appel à des bibliothèques externes (MPI, BLACS, BLAS, LAPACK). Il est donc nécessaire de développer des extensions compatibles avec l'outil CADNA. L'implémentation de ces diverses extensions pose un problème de performance, la complexité algorithmique et la taille des logiciels de calcul numérique impliquant d'importants temps d'exécution. A titre d'exemple, l'implémentation directe de CADNA dans la routine de produit matriciel DGEMM des BLAS, introduit un surcoût supérieur à 1000 pour une matrice carrée de taille 1024. Les raisons de ce surcoût sont expliquées dans ce mémoire. Nous présentons également, à travers notre routine DgemmCADNA, la méthodologie pour réduire ce surcoût. Cette routine a permis de réduire ce surcoût d'un facteur 1100 à un facteur 35 par rapport à la version GotoBLAS. Une deuxième partie de notre travail a été consacrée à l'étude de la qualité numérique du code Telemac-2D. Pour valider entièrement le code, nous avons implémenté une extension de CADNA pour le standard MPI. Le débogage numérique à l'aide de CADNA a montré que plus de 30% des instabilités détectées apparaissent dans les produits scalaires. L'utilisation des algorithmes de produit scalaire compensé permet d'améliorer la précision des résultats sans dégrader les performances du code.
APA, Harvard, Vancouver, ISO, and other styles
4

Montan, Séthy Akpémado. "Sur la validation numérique des codes de calcul industriels." Paris 6, 2013. http://www.theses.fr/2013PA066751.

Full text
Abstract:
L'étude de la qualité numérique est cruciale pour les codes industriels tels que ceux développés à EDF R&D. C'est d'autant plus important dans le contexte actuel où les simulations numériques sont faites sur des architectures pouvant exécuter des milliards d’opérations flottantes par seconde. Des études ont montré que la bibliothèque CADNA est un outil adapté à la validation numérique des codes industriels. Toutefois, CADNA ne peut être utilisée simplement sur des grands codes industriels, ces derniers faisant appel à des bibliothèques externes (MPI, BLACS, BLAS, LAPACK). Il est donc nécessaire de développer des extensions compatibles avec l’outil CADNA. L'implémentation de ces diverses extensions pose un problème de performance, la complexité algorithmique et la taille des logiciels de calcul numérique impliquant d'importants temps d'exécution. A titre d'exemple, l'implémentation directe de CADNA dans la routine de produit matriciel DGEMM des BLAS, introduit un surcoût supérieur à 1000 pour une matrice carrée de taille 1024. Les raisons de ce surcoût sont expliquées dans ce mémoire. Nous présentons également, à travers notre routine DgemmCADNA, la méthodologie pour réduire ce surcoût. Cette routine a permis de réduire ce surcoût d'un facteur 1100 à un facteur 35 par rapport à la version GotoBLAS. Une deuxième partie de notre travail à été consacrée à l'étude de la qualité numérique du code Telemac-2D. Pour valider entièrement le code, nous avons implémenté une extension de CADNA pour le standard MPI. Le débogage numérique à l'aide de CADNA a montré que plus de 30% des instabilités détectées apparaissent dans les produits scalaires. L'utilisation des algorithmes de produit scalaire compensé permet d'améliorer la précision des résultats sans dégrader les performances du code
Numerical verification of industrial codes, such as those developed atEDF R&D, is required to estimate the precision and the quality ofcomputed results, even more for code running in HPC environments wheremillions of instructions are performed each second. These programsusually use external libraries (MPI, BLACS, BLAS, LAPACK). Inthis context, it is required to have a tool as nonintrusive aspossible to avoid rewriting the original code. In this regard, theCADNA library, which implement the Discrete Stochastic Arithmetic,appears to be one of a promising approach for industrial applications. In the first part of this work, we are interested in an efficientimplementation of the BLAS routine DGEMM (General Matrix Multiply)implementing Discrete Stochastic Arithmetic. The implementation of abasic algorithm for matrix product using stochastic types leads to anoverhead greater than 1000 for a matrix of 1024*1024 comparedto the standard version and commercial versions of xGEMM. Here, wedetail different solutions to reduce this overhead and the results wehave obtained. A new routine DgemmCADNA have been designed. This routine has allowed to reduce the overhead from 1100 to 35compare to optimized BLAS implementations (GotoBLAS). Then, we focus on the numerical verification of Telemac-2D computedresults. Performing a numerical validation with the CADNA libraryshows that more than 30% of the numerical instabilities occurringduring an execution come from the dot product function. A moreaccurate implementation of the dot product with compensated algorithmsis presented in this work. We show that implementing these kind ofalgorithms, in order to improve the accuracy of computed results doesnot alter the code performance
APA, Harvard, Vancouver, ISO, and other styles
5

Baladron, Pezoa Javier. "Exploring the neural codes using parallel hardware." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847333.

Full text
Abstract:
The aim of this thesis is to understand the dynamics of large interconnected populations of neurons. The method we use to reach this objective is a mixture of mesoscopic modeling and high performance computing. The rst allows us to reduce the complexity of the network and the second to perform large scale simulations. In the rst part of this thesis a new mean eld approach for conductance based neurons is used to study numerically the eects of noise on extremely large ensembles of neurons. Also, the same approach is used to create a model of one hypercolumn from the primary visual cortex where the basic computational units are large populations of neurons instead of simple cells. All of these simulations are done by solving a set of partial dierential equations that describe the evolution of the probability density function of the network. In the second part of this thesis a numerical study of two neural eld models of the primary visual cortex is presented. The main focus in both cases is to determine how edge selection and continuation can be computed in the primary visual cortex. The dierence between the two models is in how they represent the orientation preference of neurons, in one this is a feature of the equations and the connectivity depends on it, while in the other there is an underlying map which denes an input function. All the simulations are performed on a Graphic Processing Unit cluster. Thethesis proposes a set of techniques to simulate the models fast enough on this kind of hardware. The speedup obtained is equivalent to that of a huge standard cluster.
APA, Harvard, Vancouver, ISO, and other styles
6

Picot, Romain. "Amélioration de la fiabilité numérique de codes de calcul industriels." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS242.

Full text
Abstract:
De nombreux travaux sont consacrés à la performance des simulations numériques, or il est important de tenir compte aussi de l'impact des erreurs d'arrondi sur les résultats produits. Ces erreurs d'arrondi peuvent être estimées grâce à l'Arithmétique Stochastique Discrète (ASD), implantée dans la bibliothèque CADNA. Les algorithmes compensés permettent d'améliorer la précision des résultats, sans changer le type numérique utilisé. Ils ont été conçus pour être généralement exécutés en arrondi au plus près. Nous avons établi des bornes d'erreur pour ces algorithmes en arrondi dirigé et montré qu'ils peuvent être utilisés avec succès avec le mode d'arrondi aléatoire de l'ASD. Nous avons aussi étudié l’impact d’une précision cible des résultats sur les types numériques des différentes variables. Nous avons développé l'outil PROMISE qui effectue automatiquement ces modifications de types tout en validant les résultats grâce à l’ASD. L'outil PROMISE a ainsi fourni de nouvelles configurations de types mêlant simple et double précision dans divers programmes numériques et en particulier dans le code MICADO développé à EDF. Nous avons montré comment estimer avec l'ASD les erreurs d'arrondi générées en quadruple précision. Nous avons proposé une version de CADNA qui intègre la quadruple précision et qui nous a permis notamment de valider le calcul de racines multiples de polynômes. Enfin nous avons utilisé cette nouvelle version de CADNA dans l'outil PROMISE afin qu'il puisse fournir des configurations à trois types (simple, double et quadruple précision)
Many studies are devoted to performance of numerical simulations. However it is also important to take into account the impact of rounding errors on the results produced. These rounding errors can be estimated with Discrete Stochastic Arithmetic (DSA), implemented in the CADNA library. Compensated algorithms improve the accuracy of results, without changing the numerical types used. They have been designed to be generally executed with rounding to nearest. We have established error bounds for these algorithms with directed rounding and shown that they can be used successfully with the random rounding mode of DSA. We have also studied the impact of a target precision of the results on the numerical types of the different variables. We have developed the PROMISE tool which automatically performs these type changes while validating the results thanks to DSA. The PROMISE tool has thus provided new configurations of types combining single and double precision in various programs and in particular in the MICADO code developed at EDF. We have shown how to estimate with DSA rounding errors generated in quadruple precision. We have proposed a version of CADNA that integrates quadruple precision and that allowed us in particular to validate the computation of multiple roots of polynomials. Finally we have used this new version of CADNA in the PROMISE tool so that it can provide configurations with three types (single, double and quadruple precision)
APA, Harvard, Vancouver, ISO, and other styles
7

Duclos-Cianci, Guillaume. "Outils de calcul quantique tolérant aux fautes." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6770.

Full text
Abstract:
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
APA, Harvard, Vancouver, ISO, and other styles
8

Schmitt, Maxime. "Génération automatique de codes adaptatifs." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD029.

Full text
Abstract:
Dans cette thèse nous proposons une interface de programmation pour aider les développeurs dans leur tâche d'optimisation de programme par calcul approché. Cette interface prend la forme d'extensions aux langages de programmation pour indiquer au compilateur quelles parties du programme peuvent utiliser ce type de calcul. Le compilateur se charge alors de transformer les parties du programme visées pour rendre l'application adaptative, allouant plus de ressources aux endroits où une précision importante est requise et utilisant des approximations où la précision peut être moindre. Nous avons automatisé la découverte des paramètres d'optimisation que devrait fournir l'utilisateur pour les codes à stencil, qui sont souvent rencontrés dans des applications de traitement du signal, traitement d'image ou simulation numérique. Nous avons exploré des techniques de compression automatique de données pour compléter la génération de code adaptatif. Nous utilisons la transformée en ondelettes pour compresser les données et obtenir d'autres informations qui peuvent être utilisées pour trouver les zones avec des besoins en précision plus importantes
In this thesis we introduce a new application programming interface to help developers to optimize an application with approximate computing techniques. This interface is provided as a language extension to advise the compiler about the parts of the program that may be optimized with approximate computing and what can be done about them. The code transformations of the targeted regions are entirely handled by the compiler to produce an adaptive software. The produced adaptive application allocates more computing power to the locations where more precision is required, and may use approximations where the precision is secondary. We automate the discovery of the optimization parameters for the special class of stencil programs which are common in signal/image processing and numerical simulations. Finally, we explore the possibility of compressing the application data using the wavelet transform and we use information found in this basis to locate the areas where more precision may be needed
APA, Harvard, Vancouver, ISO, and other styles
9

Damblin, Guillaume. "Contributions statistiques au calage et à la validation des codes de calcul." Thesis, Paris, AgroParisTech, 2015. http://www.theses.fr/2015AGPT0083.

Full text
Abstract:
La validation des codes de calcul a pour but d’évaluer l’incertitude de prédiction d’un système physique à partir d’un code de calcul l’approchant et des mesures physiques disponibles. D’une part, le code peut ne pas être une représentation exacte de la réalité. D’autre part, le code peut être entaché d’une incertitude affectant la valeur de certains de ses paramètres, dont l’estimation est appelée « calage de code ». Après avoir dressé un état de l’art unifié des principales procédures de calage et de validation des codes de calcul, nous proposons plusieurs contributions à ces deux problématiques lorsque le code est appréhendé comme une fonction boîte noire coûteuse. D’abord, nous développons une technique bayésienne de sélection de modèle pour tester l’existence d’une fonction d’erreur entre les réponses du code et le système physique, appelée « erreur de code ». Ensuite, nous présentons de nouveaux algorithmes destinés à la construction de plans d’expériences séquentiels afin de rendre plus précis le calage d’un code de calcul basé sur l’émulation par un processus gaussien. Enfin, nous validons un code de calcul utilisé pour prédire la consommation énergétique d’un bâtiment au cours d’une période de temps. Nous utilisons les résultats de l’étude de validation pour apporter une solution à un problème de statistique décisionnelle dans lequel un fournisseur d’électricité doit s’engager auprès de ses clients sur des prévisions moyennes de consommation. En utilisant la théorie bayésienne de la décision, des estimateurs ponctuels optimaux sont calculés
Code validation aims at assessing the uncertainty affecting the predictions of a physical system by using both the outputs of a computer code which attempt to reproduce it and the available field measurements. In the one hand, the codemay be not a perfect representation of the reality. In the other hand, some code parameters can be uncertain and need to be estimated: this issue is referred to as code calibration. After having provided a unified view of the main procedures of code validation, we propose several contributions for solving some issues arising in computer codes which are both costly and considered as black-box functions. First, we develop a Bayesian testing procedure to detect whether or not a discrepancy function, called code discrepancy, has to be taken into account between the code outputs and the physical system. Second, we present new algorithms for building sequential designs of experiments in order to reduce the error occurring in the calibration process based on a Gaussian process emulator. Lastly, a validation procedure of a thermal code is conducted as the preliminary step of a decision problem where an energy supplier has to commit for an overall energy consumption forecast to customers. Based on the Bayesian decision theory, some optimal plug-in estimators are computed
APA, Harvard, Vancouver, ISO, and other styles
10

Régnier, Gilles. "Aide à l'utilisation des codes de calcul des structures : une programmation déclarative." Paris 6, 1990. http://www.theses.fr/1990PA066664.

Full text
Abstract:
L'utilisation des codes de calcul des structures a atteint un tel degré de complexité que des systèmes d'aide a la génération des données et a l'analyse des résultats deviennent nécessaires. Pour situer les concepts qui sont présentes dans cette étude autour d'un code de calcul industriel, différentes approches sont décrites. Afin de bien spécifier le noyau du système d'aide, plusieurs outils d'assistance a l'utilisation du code pour des calculs typiques ont été développes. Le besoin de représenter une grande quantité de connaissances de nature diverse (technologique, physique, numérique, informatique) et le développement incrémental se sont révèles incontournables. L'étude montre que les systèmes a base de connaissances constituent la méthodologie logicielle appropriée, et que les techniques de l'intelligence artificielle offrent la souplesse de représentation requise. Enfin la réalisation d'une interface avec le code permet, a l'aide d'un langage a objets, de déclarer, avec leurs fonctionnalités, les connaissances descriptives générales ainsi que celles propres au problème a résoudre. Les connaissances déductives, représentant essentiellement l'expertise d'un problème, sont déclares dans des règles filtrant sur la base d'objets
APA, Harvard, Vancouver, ISO, and other styles
11

Chemin, Sébastien. "Etude des interactions thermiques fluide-structure par un couplage de codes de calcul." Reims, 2006. http://theses.univ-reims.fr/exl-doc/GED00000555.pdf.

Full text
Abstract:
Dans cette thèse, nous présentons le couplage thermique entre un code Navier-Stokes de type volumes finis avec un code de conduction de type éléments finis. Ce couplage a été réalisé au moyen de la bibliothèque informatique MpCCI. Le couplage entre les deux codes est effectué à l'interface par l'intermédiaire de conditions de raccord ou conditions aux limites thermiques. Ces conditions font intervenir des coefficients de couplage à l'interface et associés au milieu fluide et au milieu solide. Dans le cadre du couplage thermique en régime permanent, l'étude de la stabilité des conditions de raccord permet de définir les coefficients de couplage optimaux en terme de stabilité et de convergence. La méthode de couplage a été validée sur un cas élémentaire et sur des configurations industrielles. La deuxième partie est consacrée à l'étude du couplage en régime transitoire. Un algorithme de couplage original a été mis en oeuvre et répond à un certain nombre de besoins industriels. Cet algorithme consiste à filtrer les hautes fréquences, ce qui revient à considérer le fluide comme stationnaire à chaque instant de couplage. L'algorithme instationnaire a été validé expérimentalement sur le cas d'un écoulement sur une plaque plane
In this thesis, a conjugate heat transfer procedure between a finite-volume Navier-Stokes solver and a finite-element conduction solver is presented. The coupling has been performed through the MpCCI library and thermal boundary conditions, on the coupling surfaces. These conditions define two coupling coefficients connecting both the fluid and the solid domain. The first part describes the fluid-solid thermal steady state coupling. The stability analysis of the boundary conditions highlights the most efficient coefficients in terms of stability and convergence. As a consequence, a steady state algorithm has been implemented. It corresponds to an iterative procedure between the Navier-Stokes solver and the heat conduction solver. Thanks to the MpCCI library, the thermal quantities (heat flux, temperature) are exchanged between each solver until the thermal steady state is reached in both the fluid and the solid domains. This coupling method has been validated on a simple case, namely a flat plate, and two industrial cases, a flow around a turbine blade and an effusion cooling system. The second part of this thesis is dedicated to the fluid-solid thermal transient coupling. An original coupling algorithm applied to industrial problems is described. This algorithm corresponds to an iterative procedure between a steady state fluid description and a transient solid description. The experimental setup consists of an interaction between a steady flowfield and a transient heat conduction in a flat plate
APA, Harvard, Vancouver, ISO, and other styles
12

OUEDERNI, MAROUANE. "Modelisation et simulation des regulations dans les codes de calcul thermique du batiment." Paris, ENMP, 1990. http://www.theses.fr/1990ENMP0236.

Full text
Abstract:
Cette these traite des difficultes liees a la prise en compte des regulations dans la modelisation et la simulation des systemes thermiques du batiment. Des techniques de parametrage automatique hors-ligne des regulateurs sont etudiees. Un modele de regulateur numerique auto-ajustable est propose. La facilite d'usage et la robustesse de ce regulateur face a des systemes de caracteristiques variables et soumis a des perturbations importantes, sont assurees: 1) par une initialisation pre-definie des parametres servant a la synthese du regulateur; 2) et par un module de supervision constitue de regles de conduite s'appliquant a son adaptation. La description du mode operatoire global d'une installation thermique complexe, est aussi abordee. Ainsi, une base methodologique et un modele conceptuel sont proposes, en vue d'elaborer un outil d'aide a la description des logiques de fonctionnement. Une structure type de schema logique est definie, avec un noyau de base de regles permettant la structuration des informations du concepteur, d'en verifier la coherence, la completude ainsi que la fidelite au systeme reel
APA, Harvard, Vancouver, ISO, and other styles
13

Chemin, Sébastien Lachi Mohammed. "Etude des interactions thermiques fluide-structure par un couplage de codes de calcul." Reims : S.C.D. de l'Université, 2006. http://scdurca.univ-reims.fr/exl-doc/GED00000555.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Grospellier, Antoine. "Décodage des codes expanseurs quantiques et application au calcul quantique tolérant aux fautes." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS575.

Full text
Abstract:
Le calcul quantique tolérant aux fautes est un ensemble de techniques dont le but est d'effectuer des calculs quantiques de manière fiable en utilisant des composants bruités. Dans ce contexte, l'utilisation de codes correcteurs quantiques maintient le nombre d'erreurs présentes dans le système en dessous d'un seuil tolérable. L'un des principaux problèmes de ce domaine est d'évaluer le coût minimum (en mémoire et en temps) nécessaire pour transformer un calcul quantique idéal en un calcul tolérant aux fautes. Dans cette thèse, nous montrons que la famille des codes expanseurs quantiques associée à l'algorithme de décodage small-set-flip peut être utilisée dans la construction de ref. [arXiv:1310.2984] pour réaliser du calcul quantique tolérant aux fautes avec coût constant en mémoire. La famille de codes correcteurs ainsi que le décodeur que nous étudions ont été introduits dans ref. [arXiv:1504.00822] où un modèle de bruit adverse est considéré. En nous appuyant sur les résultats de cet article, nous analysons le comportement des codes expanseurs quantiques face à un modèle de bruit stochastique qui est pertinent dans le cadre du calcul tolérant aux fautes [arXiv:1711.08351], [arXiv:1808.03821]. De plus, nous montrons que l'algorithme de décodage peut être parallélisé pour fonctionner en temps constant. Cette propriété est essentielle pour éviter que les erreurs ne s'accumulent pendant que l'algorithme est exécuté. Au-delà des résultats théoriques décrits ci-dessus, nous avons effectué une analyse numérique des codes expanseurs quantiques dans le but d'évaluer leurs performances en pratique [arXiv:1810.03681]. Le modèle de bruit choisi pour ces simulations consiste à générer des erreurs de types X et Z de manière indépendante et identiquement distribuée sur les qubits. Les résultats obtenus pour ces codes de rendement constant sont prometteurs puisque nos simulations montrent que leur seuil est décent et que leurs performances à taille finie sont bonnes
Fault tolerant quantum computation is a technique to perform reliable quantum computation using noisy components. In this context, quantum error correcting codes are used to keep the amount of errors under a sustainable threshold. One of the main problems of this field is to determine the minimum cost, in terms of memory and time, which is needed in order to transform an ideal quantum computation into a fault-tolerant one. In this PhD thesis, we show that the family of quantum expander codes and the small-set-flip decoder can be used in the construction of ref. [arXiv:1310.2984] to produce a fault-tolerant quantum circuit with constant space overhead. The error correcting code family and the decoder that we study has been introduced in ref. [arXiv:1504.00822] where an adversarial error model was examined. Based on the results of this article, we analyze quantum expander codes subjected to a stochastic error model which is relevant for fault-tolerant quantum computation [arXiv:1711.08351], [arXiv:1808.03821]. In addition, we show that the decoding algorithm can be parallelized to run in constant time. This is very relevant to prevent errors from accumulating while the decoding algorithm is running. Beyond the theoretical results described above, we perform a numerical analysis of quantum expander codes to measure their performance in practice [arXiv:1810.03681]. The error model used during these simulations generates X and Z type errors on the qubits with an independent and identically distributed probability distribution. Our results are promising because they reveal that these constant rate codes have a decent threshold and good finite length performance
APA, Harvard, Vancouver, ISO, and other styles
15

Luu, Thi Hieu. "Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066120/document.

Full text
Abstract:
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision
In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy
APA, Harvard, Vancouver, ISO, and other styles
16

Zappatore, Ilaria. "Simultaneous Rational Function Reconstruction and applications to Algebraic Coding Theory." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS021.

Full text
Abstract:
Cette thèse étudie un problème de calcul formel qui a des applications et conséquences importantes sur la théorie des codes correcteurs algébriques : la reconstruction rationnelle simultanée (RRS). En effet, une analyse rigoureuse de ce problème amène à des résultats intéressants dans ce deux domaines scientifiques.Plus précisément, la reconstruction simultanée de fractions rationnelles est le problème de la reconstruction d’un vecteur de fractions rationnelles ayant le même dénominateur étant donné ses évaluations (ou plus généralement étant donné ses restes modulo de polynômes différents). La particularité de ce problème consiste dans le fait que la contrainte du dénominateur commun réduit le nombre de points d’évaluation nécessaires pour garantir l’existence d’une solution, au prix d’une éventuelle perte d’unicité. Une des principales contributions de ce travail consiste à prouver que l’unicité est garantie pour quasiment tous les instances de ce problème.Ce résultat a été obtenu par l’élaboration des résultats et techniques précédents dérivées des applications du probleme RRS, depuis la résolution de systèmes linéaires polynomiaux jusqu’au décodage de codes Reed-Solomon entrelacés.Dans ce travail, nous avons aussi étudié et présenté une autre application du problème SRFR, concernant le problème de la construction d’algorithmes tolérants aux fautes : des algorithmes résistants aux erreurs de calcul. Ces algorithmes sont construits en introduisant une redondance et en utilisant des outils de codes correcteurs d’erreurs pour détecter et éventuellement corriger les erreurs qui se produisent pendant les calculs. Dans ce contexte d’application, nous améliorons une technique existante de tolérance aux fautes pour la résolution de systèmes linéaires polynomiaux par interpolation-évaluation, avec une attention particulière aux problème RRS correspondant
This dissertation deals with a Computer Algebra problem which has significant consequencesin Algebraic Coding Theory and Error Correcting Codes: the simultaneous rationalfunction reconstruction. Indeed, an accurate analysis of this problem leads to interestingresults in both these scientific domains.More precisely, the simultaneous rational function reconstruction is the problem of reconstructinga vector of rational functions with the same denominator given its evaluations(or more generally given its remainders modulo different polynomials). The peculiarity ofthis problem consists in the fact that the common denominator constraint reduces the numberof evaluation points needed to guarantee the existence of a solution, possibly losing theuniqueness. One of the main contribution of this work consists in the proof that uniquenessis guaranteed for almost all instances of this problem.This result was obtained by elaborating some other contributions and techniques derivedby the applications of SRFR, from the polynomial linear system solving to the decoding ofInterleaved Reed-Solomon codes.In this work, we will also study and present another application of the SRFR problem,concerning the problem of constructing fault-tolerant algorithms: algorithms resilientsto computational errors. These algorithms are constructed by introducing redundancy andusing error correcting codes tools to detect and possibly correct errors which occur duringcomputations. In this application context, we improve an existing fault-tolerant techniquefor polynomial linear system solving by interpolation-evaluation, by focusing on the SRFRproblem related to it
APA, Harvard, Vancouver, ISO, and other styles
17

Content, Cédric. "Méthode innovante pour le calcul de la transition laminaire-turbulent dans les codes Navier-Stokes." Toulouse, ISAE, 2011. http://www.theses.fr/2011ESAE0006.

Full text
Abstract:
L’objectif du travail présenté est d’intégrer, à partir du modèle proposé par F. Menter, un modèle pour la transition laminaire-turbulent en approche RANS dans le code elsA de l'ONERA. Ce modèle a été étendu aux écoulements compressibles, sur parois mobiles ou encore sujets aux instabilités transversales (crossflow en anglo-saxon). Une étude paramétrique avec le code de couches limites 3C3D sur plusieurs cas de référence représentatifs d’écoulements aussi bien externes qu’internes, a été réalisée pour calibrer la prévision de la transition longitudinale. Le modèle ainsi fermé a été soumis à plusieurs cas tests d’écoulements externes afin d’en évaluer la robustesse et la précision. La démarche utilisée précédemment pour la transition longitudinale a été reprise pour prendre en compte la transition par modes d’instabilité transversale avec ce modèle. Dans un premier temps la recherche d’un paramètre représentatif du crossflow et de son critère associé à partir de grandeurs locales a été effectuée en vue d’obtenir une modélisation de ce type de transition compatible avec les contraintes du modèle. Puis, cette modélisation a été intégrée dans le code 3C3D pour en effectuer la calibration sur des cas de cylindres d’envergure infinie placés en flèche.
APA, Harvard, Vancouver, ISO, and other styles
18

Möller, Nathalie. "Adaptation de codes industriels de simulation en Calcul Haute Performance aux architectures modernes de supercalculateurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV088.

Full text
Abstract:
Durant de longues années, la stabilité dans le paradigme d'architecture a facilité la portabilité de performance des grands codes en Calcul de Haute Performance d'une génération à l'autre de supercalculateurs.L'effondrement programmé de la loi de Moore - qui règle les progrès en gravure des micro-processeurs - bouscule ce modèle et requiert un effort nouveau du côté logiciel.Une modernisation des codes basée sur une algorithmique adaptée aux futurs systèmes est ainsi nécessaire.Cette modernisation repose sur des principes de base connus tels que la concurrence des calculs et la localité des données.Cependant, la mise en œuvre de ces principes dans le cadre d'applications réelles en milieu industriel – lesquelles applications sont souvent le fruit d’années d’efforts de développement - s’avère bien plus compliquée que ne le laissait prévoir leur simplicité apparente.Les contributions de cette thèse sont les suivantes :D’une part, nous explorons une méthodologie de modernisation de codes basée sur l’utilisation de proto-applications et la confrontons à une approche directe, en optimisant deux codes de simulation dévéloppés dans un contexte similaire.D’autre part, nous nous concentrons sur l’identification des principaux défis concernant l’adéquation entre applications, modèles de programmation et architectures.Les deux domaines d'application choisis sont la dynamique des fluides et l'électromagnétisme
For many years, the stability of the architecture paradigm has facilitated the performance portability of large HPC codes from one generation of supercomputers to another.The announced breakdown of the Moore's Law, which rules the progress of microprocessor engraving, ends this model and requires new efforts on the software's side.Code modernization, based on an algorithmic which is well adapted to the future systems, is mandatory.This modernization is based on well-known principles as the computation concurrency, or degree of parallelism, and the data locality.However, the implementation of these principles in large industrial applications, which often are the result of years of development efforts, turns out to be way more difficult than expected.This thesis contributions are twofold :On the one hand, we explore a methodology of software modernization based on the concept of proto-applications and compare it with the direct approach, while optimizing two simulation codes developed in a similar context.On the other hand, we focus on the identification of the main challenges for the architecture, the programming models and the applications.The two chosen application fields are the Computational Fluid Dynamics and Computational Electro Magnetics
APA, Harvard, Vancouver, ISO, and other styles
19

Cliquet, Julien. "Calcul de la transition laminaire-turbulent dans les codes Navier-Stokes : application aux géométries complexes." Toulouse, ISAE, 2007. http://www.theses.fr/2007ESAE0010.

Full text
Abstract:
Le but du travail présenté est d'implanter des critères de transition robustes et applicables à des géométries complexes dans le code Navier-Stokes elsA de l'ONERA. La première implantation du calcul de la transition dans elsA, de type mono-domaine, s'appuyait sur la structure de données intrinsèque du code Navier-Stokes qui est logiquement adaptée à la résolution des équations de Navier-Stokes mais pas particulièrement au traitement de la couche limite. Lorsqu'on considère des géométries complexes, couramment utilisées dans le milieu industriel, l'utilisation de maillages multi-domaines devient incontournable, y compris au niveau des parois, et restreindre une paroi à un seul domaine conduit à des limitations inacceptables. Pour calculer la transition avec des critères non-locaux, il faut définir des lignes de calcul dont l'origine est située au voisinage des lignes d'attachement. Si ces lignes traversent des frontières de domaine, il est indispensable d'assurer la transmission d'information, ce qui n'était pas possible avec la première implantation du calcul de la transition dans elsA. Pour résoudre ces problèmes, une structure de données adaptée, basée sur le concept de ligne de calcul a été introduite, permettant de lever la plupart des limitations topologiques. Les difficultés liées à la précision des calculs, mises en évidence lors du projetGARTEUR AG35, ont également été considérées. Ainsi, les problèmes concernant la détection de l'épaisseur de couche limite sont analysés et les solutions retenues présentées. L'unification d'anciens critères a permis de couvrir une gamme de gradients de pression longitudinaux allant de l'écoulement accéléré aux couches limites décollées. Les effets de compressibilité y sont inclus pour couvrir l'important domaine du transsonique. Pour éviter les problèmes numériques liés à l'utilisation d'une fonction d'intermittence discontinue dans la région de transition, des solutions seront apportées.
APA, Harvard, Vancouver, ISO, and other styles
20

Pecquet, Lancelot. "Décodage en liste des codes géométriques." Paris 6, 2001. http://www.theses.fr/2001PA066561.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Hugo, Andra-Ecaterina. "Composability of parallel codes on heterogeneous architectures." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0373/document.

Full text
Abstract:
Pour répondre aux besoins de précision et d'efficacité des simulations scientifiques, la communauté du Calcul Haute Performance augmente progressivement les demandes en terme de parallélisme, rajoutant ainsi un besoin croissant de réutiliser les bibliothèques parallèles optimisées pour les architectures complexes.L'utilisation simultanée de plusieurs bibliothèques de calcul parallèle au sein d'une application soulève bien souvent des problèmes d 'efficacité. En compétition pour l'obtention des ressources, les routines parallèles, pourtant optimisées, se gênent et l'on voit alors apparaître des phénomènes de surcharge, de contention ou de défaut de cache.Dans cette thèse, nous présentons une technique de cloisonnement de flux de calculs qui permet de limiter les effets de telles interférences. Le cloisonnement est réalisé à l'aide de contextes d'exécution qui partitionnement les unités de calculs voire en partagent certaines. La répartition des ressources entre les contextes peut être modifiée dynamiquement afin d'optimiser le rendement de la machine. A cette fin, nous proposons l'utilisation de certaines métriques par un superviseur pour redistribuer automatiquement les ressources aux contextes. Nous décrivons l'intégration des contextes d'ordonnancement au support d'exécution pour machines hétérogènes StarPU et présentons des résultats d'expériences démontrant la pertinence de notre approche. Dans ce but, nous avons implémenté une extension du solveur direct creux qr mumps dans la quelle nous avons fait appel à ces mécanismes d'allocation de ressources. A travers les contextes d'ordonnancement nous décrivons une nouvelle méthode de décomposition du problème basée sur un algorithme de \proportional mapping". Le superviseur permet de réadapter dynamiquement et automatiquement l'allocation des ressources au parallèlisme irrégulier de l'application. L'utilisation des contextes d'ordonnancement et du superviseur a amélioré la localité et la performance globale du solveur
To face the ever demanding requirements in term of accuracy and speed of scientific simulations, the High Performance community is constantly increasing the demands in term of parallelism, adding thus tremendous value to parallel libraries strongly optimized for highly complex architectures.Enabling HPC applications to perform efficiently when invoking multiple parallel libraries simultaneously is a great challenge. Even if a uniform runtime system is used underneath, scheduling tasks or threads coming from dfferent libraries over the same set of hardware resources introduces many issues, such as resource oversubscription, undesirable cache ushes or memory bus contention.In this thesis, we present an extension of StarPU, a runtime system specifically designed for heterogeneous architectures, that allows multiple parallel codes to run concurrently with minimal interference. Such parallel codes run within scheduling contexts that provide confined executionenvironments which can be used to partition computing resources. Scheduling contexts can be dynamically resized to optimize the allocation of computing resources among concurrently running libraries. We introduced a hypervisor that automatically expands or shrinks contexts using feedback from the runtime system (e.g. resource utilization). We demonstrated the relevance of this approach by extending an existing generic sparse direct solver (qr mumps) to use these mechanisms and introduced a new decomposition method based on proportional mapping that is used to build the scheduling contexts. In order to cope with the very irregular behavior of the application, the hypervisor manages dynamically the allocation of resources. By means of the scheduling contexts and the hypervisor we improved the locality and thus the overall performance of the solver
APA, Harvard, Vancouver, ISO, and other styles
22

Nanty, Simon. "Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM043/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés
This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications
APA, Harvard, Vancouver, ISO, and other styles
23

Colin, de Verdière Guillaume. "A la recherche de la haute performance pour les codes de calcul et la visualisation scientifique." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS012/document.

Full text
Abstract:
Cette thèse vise à démontrer que l'algorithmique et la programmation, dans un contexte de calcul haute performance (HPC), ne peuvent être envisagées sans tenir compte de l'architecture matérielle des supercalculateurs car cette dernière est régulièrement remise en cause.Après avoir rappelé quelques définitions relatives aux codes et au parallélisme, nous montrons que l'analyse des différentes générations de supercalculateurs, présents au CEA lors de ces 30 dernières années, permet de dégager des points de vigilances et des recommandations de bonnes pratiques en direction des développeurs de code.En se reposant sur plusieurs expériences, nous montrons comment viser une performance adaptée aux supercalculateurs et comment essayer d'atteindre la performance portable voire la performance extrême dans le monde du massivement parallèle, incluant ou non l'usage de GPU.Nous expliquons que les logiciels et matériels dédiés au dépouillement graphique des résultats de calcul suivent les mêmes principes de parallélisme que pour les grands codes scientifiques, impliquant de devoir maîtriser une vue globale de la chaîne de simulation. Enfin, nous montrons quelles sont les tendances et contraintes qui vont s'imposer à la conception des futurs supercalculateurs de classe exaflopique, impactant de fait le développement des prochaines générations de codes de calcul
This thesis aims to demonstrate that algorithms and coding, in a high performance computing (HPC) context, cannot be envisioned without taking into account the hardware at the core of supercomputers since those machines evolve dramatically over time. After setting a few definitions relating to scientific codes and parallelism, we show that the analysis of the different generations of supercomputer used at CEA over the past 30 years allows to exhibit a number of attention points and best practices toward code developers.Based on some experiments, we show how to aim at code performance suited to the usage of supercomputers, how to try to get portable performance and possibly extreme performance in the world of massive parallelism, potentially using GPUs.We explain that graphical post-processing software and hardware follow the same parallelism principles as large scientific codes, requiring to master a global view of the simulation chain.Last, we describe tendencies and constraints that will be forced on the new generations of exaflopic class supercomputers. These evolutions will, yet again, impact the development of the next generations of scientific codes
APA, Harvard, Vancouver, ISO, and other styles
24

Wen, Erzhuang. "Contribution à l'étude des codes correcteurs et des corps finis." Toulouse 3, 1994. http://www.theses.fr/1994TOU30255.

Full text
Abstract:
Dans cette these nous presentons des resultats obtenus de nos etudes des codes correcteurs et des corps finis. Nous donnons notre construction explicite d'un isomorphisme entre les deux formes de representation de la decomposition de l'anneau gf(q)x#1,,x#n/(t#1(x#1),,t#n(x#n)). Cette construction est valable dans le cas modulaire comme dans le cas semi-simple. Nous presentons notre algorithme de deduction de bases de grobner reduite de certains ideaux de gf(q)z#1,,z#n/(z#m#1#1,,z#m#n#n). Cet algorithme peut etre utile pour la construction de codes correcteurs dans gf(q)x#1,,x#n/(t#1(x#1),,t#n(x#n)). Enfin nous donnons notre construction de bases normales trace-orthonormees pour un corps de caracteristique impaire. Ceci complete la construction de a. Poli qui est pour un corps de caracteristique 2 et qui ne s'applique pas dans le cas des caracteristiques impaires. En plus de notre construction nous proposons aussi une methode de deduction de bases normales trace-orthonormees a partir de bases connues. Cette methode de deduction ne depend pas de la caracteristique du corps concerne
APA, Harvard, Vancouver, ISO, and other styles
25

Dumas, Jean-Guillaume. "Contributions au calcul exact intensif." Habilitation à diriger des recherches, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00514925.

Full text
Abstract:
Le calcul scientifique est souvent associé au calcul numérique. Pourtant dans de nombreuses disciplines scientifiques il est nécessaire d'aller au-delà du calcul approché : nécessité de certification des résultats, calculs dans des structures mathématiques discrètes, instabilité des algorithmique numériques. Le calcul exact s'attache donc à donner des résultats exacts ou certifiés. Cependant, la principale obstruction à l'utilisation du Calcul Formel est bien souvent les faibles performances des systèmes commerciaux y compris pour les opérations fondamentales comme l'algèbre linéaire. L'objectif de ces travaux est donc de réduire l'écart entre le calcul exact et le calcul numérique, tant sur le plan algorithmique, que sur le plan logiciel. Les défis sont multiples : développer une arithmétique efficace dans les structures discrètes ; concevoir des algorithmes ayant un terme dominant de complexité optimal même en tenant compte de la croissance des données intermédiaires ; transcrire ces algorithmes dans des logiciels combinant efficacité pérenne, interfaçage et généricité.
APA, Harvard, Vancouver, ISO, and other styles
26

Jaeger, Julien. "Transformations source-à-source pour l'optimisation de codes irréguliers et multithreads." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2012. http://tel.archives-ouvertes.fr/tel-00842177.

Full text
Abstract:
Dans cette thèse, nous montrons que les optimisations source-à-source sont un moyen efficace pour générer des programmes irréguliers ou parallèles performants à partir d'une implémentation. Après avoir présenté l'évolution des architectures des processeurs, nous proposons deux méthodes distinctes. La première pour extraire des codelets d'un programme irréguliers, les optimiser et prédire les performances du programme modifié. L'autre pour limiter l'impact des problèmes d'alignements dus à la vectorisation ou aux conflits de bancs. Nous présentons aussi différentes techniques de parallélisation, l'une générant des codelets parallèles, l'autre ordonnançant un graphe de taches sur un système hétérogène.
APA, Harvard, Vancouver, ISO, and other styles
27

Lampoh, Komlanvi. "Différentiation automatique de codes mécaniques : application à l'analyse de sensibilité des tôles sandwich aux paramètres de modélisation." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0220/document.

Full text
Abstract:
En ingénierie, pour mieux comprendre le comportement mécanique d'une structure soumise à une certaine perturbation des paramètres de conception, on procède souvent à une analyse de sensibilité. Celle-ci fournit des informations quantitatives et qualitatives sur le comportement du modèle étudié et offre un accès aux gradients utilisables dans ces méthodes d'identification et d'optimisation. Dans cette thèse, nous démontrons que ces informations peuvent être obtenues à coût de développement faible en appliquant un outil de Différentiation Automatique (DA) au code informatique qui implémente le modèle. Nous adaptons la technique DA à la méthode asymptotique numérique, dans sa version Diamant, pour le calcul de la sensibilité des solutions numériques de problèmes non-linéaires discrétisés par la méthode des éléments finis. Nous discutons de manière générique à la fois les aspects théoriques et l'implémentation de plusieurs algorithmes écrits en Matlab. Les applications concernent des poutres et des plaques sandwich dans les cas statiques et dynamique (vibration libre). Les sensibilités sont calculées par rapport aux paramètres géométriques, mécanique et par rapport à des matrices de rigidité élémentaires. La généralité de nos développements permet de prendre en compte plusieurs lois viscoélastiques sans effort supplémentaire. Trois types de modèles viscoélastiques sont étudiés : module complexe constant, faible amortissement et fort amortissement. Comparée à l'approximation par différences finis souvent utilisée en mécanique, notre approche fournit des résultats plus précis pour la sensibilité de la réponse d'une structure lorsque les paramètres de conception sont perturbés. Elle permet aussi de réduire le temps de calcul
In engineering, for a better understanding of the mechanical behavior of a structure submitted to some perturbation of the modeling parameters, one often proceed to a sensitivity analysis. This provides quantitative and qualitative information on the behavior of the model under study and gives access to gradients that may be used in identification and optimization methods. In this thesis, we demonstrate that this information may be obtained at a low development effort by applying an Automatic Differentiation (AD) tool to the computer code that implements the model. We adapt the AD techniques to the Asymptotic Numerical Method (ANM), in its Diamant version for sensitivity computations of numerical solutions of nonlinear problems discretized through a finite element method. We discuss in a generic manner both the theoretical aspects and the implementation of several algorithms written in Matlab. Applications are concerned with sandwich beams and sandwich plates in both the static and dynamic (free vibration) cases. Sensitivities are computed with respect to geometric and mechanical parameters, and with respect to elementary stiffness matrix. The generality of our developments allows to take into account several viscoelastic laws with no additional effort. Three kinds of viscoelastic models are studied: constant complex modulus, low damping and higher damping. In comparison with the finite difference approximation often used in mechanics, our approach provides more accurate results for the sensitivity of the structure response to a perturbation of the modeling parameters. It also allows a reduction of the computation effort
APA, Harvard, Vancouver, ISO, and other styles
28

Benmouhoub, Farah. "Optimisation de la précision numérique des codes parallèles." Thesis, Perpignan, 2022. http://www.theses.fr/2022PERP0009.

Full text
Abstract:
Les nombres flottants sont utilisés à la place des nombres réels pour les calculs sur ordinateurs. L'utilisation de ces nombres introduit des erreurs d'arrondi qui sont en général acceptables dans la mesure où le résultat produit par la machine est proche de celui que l'on aurait obtenu en utilisant des nombres réels. Cependant, elles peuvent aussi être amplifiées par propagation, dénuant de sens le résultat d'un calcul, ce qui peut avoir des conséquences catastrophiques dans de nombreux domaines d'application comme par exemple l'aéronautique ou la finance. La précision des calculs en nombres flottants dépend de nombreux facteurs: types d'opérations effectuées, valeurs et types de données employés, ordinateurs utilisés. En outre, la précision des calculs dépend fortement de l'ordre dans lequel sont effectuées les opérations et le parallélisme démultiplie les ordonnancements possibles. Le sujet de thèse proposé concerne ce dernier point : améliorer la précision de codes de calcul scientifique massivement parallèles tels que ce que l'on trouve dans le domaine du HPC (High Performance Computing) Ces dernières années, des techniques automatiques ont été mises au point afin de valider et réécrire les codes de calcul scientifique afin de les rendre plus précis. Ces techniques rencontrent un vif intérêt tant scientifique qu'industriel. Cependant les techniques existantes acceptent uniquement des programmes séquentiels ce qui exclut les nombreux codes de calcul intensif développés dans le domaine du HPC. Or ces codes parallèles, utilisés pour réaliser des simulations numériques complexes dans de nombreux domaines scientifiques et techniques, sont particulièrement sujets aux erreurs introduites par les nombres flottants car le parallélisme modifie l'ordre dans lequel sont effectués les calculs, voire rend cet ordre aléatoire. Les résultats obtenus peuvent alors être altérés ou non reproductibles (plusieurs si mulations identiques donnant des résultats différents)
In high performance computing, nearly all the implementations and published experiments use foating-point arithmetic. However, since foating-point numbers are finite approximations of real numbers, it may result in hazards because of the accumulated errors.These round-off errors may cause damages whose gravity varies depending on the critical level of the application. Parallelism introduces new numerical accuracy problems due to the order of operations in this kind of systems. The proposed thesis subject concerns this last point: improving the precision of massively parallel scientific computing codes such as those found in the field of HPC (High Performance Computing)
APA, Harvard, Vancouver, ISO, and other styles
29

Duplex, Benjamin. "Transfert de déformations géométriques lors des couplages de codes de calcul - Application aux dispositifs expérimentaux du réacteur de recherche Jules Horowitz." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2011. http://tel.archives-ouvertes.fr/tel-00679015.

Full text
Abstract:
Le CEA développe et utilise des logiciels de calcul, également appelés codes de calcul, dans différentes disciplines physiques pour optimiser les coûts de ses installations et de ses expérimentations. Lors d'une étude, plusieurs phénomènes physiques interagissent. Un couplage et des échanges de données entre plusieurs codes sont nécessaires. Chaque code réalise ses calculs sur une géométrie, généralement représentée sous forme d'un maillage contenant des milliers voire des millions de mailles. Cette thèse se focalise sur le transfert de déformations géométriques entre les maillages spécifiques de chacun des codes de calcul couplés. Pour cela, elle présente une méthode de couplage de plusieurs codes, dont le calcul des déformations est réalisé par l'un d'entre eux. Elle traite également de la mise en place d'un modèle commun aux différents codes de l'étude regroupant l'ensemble des données partagées. Enfin, elle porte sur les transferts de déformations entre des maillages représentant une même géométrie ou des géométries adjacentes. Les modifications géométriques sont de nature discrète car elles s'appuient sur un maillage. Afin de les rendre accessible à l'ensemble des codes de l'étude et pour permettre leur transfert, une représentation continue est calculée. Pour cela, deux fonctions sont développées : l'une à support global, l'autre à support local. Toutes deux combinent une méthode de simplification et un réseau de fonctions de base radiale. Un cas d'application complet est traité dans le cadre du réacteur Jules Horowitz. L'effet des dilatations différentielles sur le refroidissement d'un dispositif expérimental est étudié.
APA, Harvard, Vancouver, ISO, and other styles
30

Senigon, de Roumefort Ravan de. "Approche statistique du vieillissement des disques optiques CD-Audio, CD-R, CD-RW." Paris 6, 2011. http://www.theses.fr/2011PA066109.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Demeure, Nestor. "Managing the compromise between performance and accuracy in simulation codes." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM004.

Full text
Abstract:
Les nombres à virgule flottante ne représentent qu'un sous-ensemble des nombres réels. De ce fait, l'arithmétique à virgule flottante introduit des approximations qui sont susceptibles de se cumuler et d'avoir un impact significatif sur les simulations numériques.Nous introduisons une nouvelle façon d'estimer et de localiser les sources d'erreur numérique dans une application et fournissons une implémentation de référence, la bibliothèque Shaman. Notre méthode utilise une arithmétique dédiée sur un type qui encapsule à la fois le résultat des calculs (identique à la version non instrumentée du code) et une approximation de son erreur numérique.Nous pouvons ainsi mesurer le nombre de chiffres significatifs de tout résultat ou résultat intermédiaire dans une simulation. Nous montrons que notre approche, bien que simple, donne des résultats compétitifs avec l'état de l'art. Qui plus est, elle a un surcoût en temps de calcul moins important et est compatible avec le parallélisme, ce qui la rend appropriée pour l'étude de larges applications
Floating-point numbers represent only a subset of real numbers. As such, floating-point arithmetic introduces approximations that can compound and have a significant impact on numerical simulations.We introduce a new way to estimate and localize the sources of numerical error in an application and provide a reference implementation, the Shaman library.Our method uses a dedicated arithmetic over a type that encapsulates both the result the user would have had with the original computation and an approximation of its numerical error. We thus can measure the number of significant digits of any result or intermediate result in a simulation.We show that this approach, while simple, gives results competitive with state-of-the-art methods. It has a smaller overhead and is compatible with parallelism which makes it suitable for the study of large scale applications
APA, Harvard, Vancouver, ISO, and other styles
32

Boukari, Nabil. "Modélisation du mouvement à l'aide de codes de calcul par éléments finis en 3D : application à la machine homopolaire et au microactionneur électrostatique." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT008H.

Full text
Abstract:
Ce travail porte sur l'étude et la modélisation du mouvement à l'aide de codes de calcul numérique en 3D de machines à grande vitesse. Certains types de machines comme les machines homopolaires et les microactionneurs électrostatiques nécessitent des modèles de type éléments finis possédant une procédure de prise en compte du mouvement. Dans une première partie, nous présentons une étude bibliographique sur les développements récents de la méthode des éléments finis. La modélisation des courants induits, les méthodes de prise en compte du mouvement ainsi que les méthodes de résolution des systèmes algébriques sont plus particulièrement développées. Dans la seconde partie, nous utilisons un code de calcul par éléments finis en 3D pour calculer les fuites magnétiques importantes induites par la saturation et calculer les pertes par courants induits qui prennent naissance dans le rotor. La première étape consiste à caler le modèle par comparaison des résultats de simulation et de mesures en régime statique. La seconde étape consiste à mettre en place un modèle linéaire équivalent au modèle saturé afin d'optimiser les temps de calculs nécessaires à l'estimation des pertes. Les modèles numériques développés sont validés par des mesures expérimentales. Dans une dernière partie, nous proposons une méthode de prise en compte du mouvement en 3D, l'Overlapping eLement Method (OLM). Intégré dans un code de calcul par éléments finis que nous avons développé, nous la validons à travers d'un microactionneur électrostatique conçu par le LAAS. Nous étudions ensuite l'influence de cette méthode sur la vitesse de convergence de l'algorithme de résolution du système algébrique obtenu par discrétisation. L'algorithme de résolution est du type gradient conjugué avec un préconditionnement SSOR ou ICCG. Nous comparons enfin l'OLM avec d'autres méthodes de prise en compte du mouvement telles que la méthode de la bande de mouvement ainsi que la méthode de la surface de glissement.
APA, Harvard, Vancouver, ISO, and other styles
33

Auder, Benjamin. "Classification et modélisation de sorties fonctionnelles de codes de calcul : application aux calculs thermo-hydrauliques accidentels dans les réacteurs à eau pressurisés (REP)." Paris 6, 2011. http://www.theses.fr/2011PA066066.

Full text
Abstract:
Compte-tenu de la complexité des systèmes industriels actuels et des progrès en calcul scientifique, les codes utilisés pour modéliser des phénomènes physiques en ingénierie nucléaire sont souvent coûteux en temps. Il est cependant nécessaire de réaliser des analyses statistiques sur certains événements, et ces analyses demandent de multiples applications du code pour être précises. C'est pourquoi le temps de simulation doit être réduit, en modélisant le code de calcul par une fonction de coût CPU négligeable. Cette modélisation s'effectue sur la base d'un échantillon de quelques centaines de résultats de calculs physiques. Ce travail s'inscrit dans le cadre relativement peu étudié des codes de calcul à réponses fonctionnelles 1D. Ces dernières modélisent l'évolution de paramètres physiques dans le temps, pour un état initial. Différents types d'évolution peuvent se dégager ; c'est pourquoi les (entrées-)sorties sont d'abord divisées en K groupes, une méthode basée sur l'erreur de classification supervisée permettant de sélectionner ce dernier nombre automatiquement. Afin de contourner la difficulté liée aux réponses fonctionnelles, l'idée principale consiste à représenter ces dernières en dimension réduite pour effectuer la régression dans le cadre vectoriel. Pour cela nous proposons une alternative non linéaire à la décomposition sur une base, accompagnée de sa justification théorique. Nous montrons que l'application ainsi construite permet d'approximer une large classe de codes, et est complémentaire de l'approche classique (utilisant une base de fonctions) sur les jeux de données CEA.
APA, Harvard, Vancouver, ISO, and other styles
34

Smith, Guillaume. "Concevoir des applications temps-réel respectant la vie privée en exploitant les liens entre codes à effacements et les mécanismes de partages de secrets." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0045/document.

Full text
Abstract:
Une large quantité de données personnelles sont partagées en temps réel par des utilisateurs en ligne, utilisant de plus en plus des terminaux mobiles avec connexion sans-fil. L'industrie s'efforce d'accumuler et d'analyser ces données pour fournir de nouveaux services ou des améliorations. La recherche fournit un effort équivalent pour permettre de traiter ces données de façon sécurisée et protectrice de la vie privée. Les problèmes de performance des communications temps réels sur terminaux mobiles sur un canal sans-fil sont aussi étudiés. Les codes à effacement sont un moyen courant d'améliorer ces performances. Le secret sharing est un mécanisme permettant de partager des données privées, ne les révélant qu'à un groupe d'utilisateur choisi. Dans cette thèse, nous lions théoriquement les secret sharing schemes et les codes à effacement, pour fournir une source plus riche de solutions aux deux problèmes. Notre objectif est de fournir des solutions ayant le niveau de sécurité souhaité, tout en restant efficace et implémentable. Les contributions de cette thèse sont les suivantes. Nous évaluons l'applicabilité d'une nouvelle classe de codes à effacements à Maximum Distance Séparable (MDS) pour transférer du contenu temps réel à des terminaux mobiles, et nous démontrons que le code systématique réduit grandement la complexité d'exécution et la taille nécessaire des tampons en comparaison du code non systématique, faisant de lui un bon candidat pour une application mobile. Nous proposons un nouveau Layered secret sharing scheme pour le partage en temps réel de données sur des réseaux sociaux (OSNs pour Online Social Network). Le procédé permet de partager automatiquement un profile dans un groupe défini dans un OSN, en utilisant un multi-secret sharing scheme formé de multiples couches. Le procédé ne dépend nullement d'un tiers de confiance. Comparé à un partage simple de chaque attributs (pouvant être un texte, une image ou une vidéo), le procédé ne divulgue aucune information à propos de ce qui est partagé, pas même le nombre de ceux-ci, et il induit une augmentation relativement faible du temps de calcul et des données à envoyer. Finalement, nous étudions les liens entre les codes MDS et les secret sharing schemes, ayant pour motivation l'inefficacité du très populaire Shamir secret sharing scheme. Nous établissons les liens théoriques entre les deux domaines et nous proposons une nouvelle construction de strong ramp schemes à partir de codes MDS. Ceci permet d'utiliser les codes MDS existants et efficaces pour des applications de partage de secret et de calculs distribués et sécurisés. Nous évaluons et montrons une réduction significative de temps de calcul et du coût de communication en utilisant un strong ramp scheme, en comparaison avec le procédé de Shamir
Data from both individuals and companies is increasingly aggregated and analysed to provide new and improved services. There is a corresponding research effort to enable processing of such data in a secure and privacy preserving way, in line with the increasing public concerns and more stringent regulatory requirements for the protection of such data. Secure Multi-Party Computation (MPC) and secret sharing are mechanisms that can enable both secure distribution and computations on private data. In this thesis, we address the inefficiencies of these mechanisms by utilising results from a theoretically related rich area, erasure codes. We derive links between erasure codes and secret sharing, and use Maximum Distance Separable (MDS) codes as a basis to provide real-time applications relying on private user's data, revealing this data only to the selected group (which can be empty). The thesis has three contributions. A new class of erasure code called on-the-fly coding, have been introduced for their improvements in terms of recovery delay and achievable capacity. However little is known about the complexity of the systematic and non-systematic variants of this code, notably for live multicast transmission of multimedia content which is their ideal use case. The evaluation of both variants demonstrate that the systematic code outperforms the non-systematic one in regard to both the buffer sizes and the computation complexity. Then, we propose a new Layered secret sharing scheme and its application to Online Social Network (OSN). In current OSN, access to the user's profile information is managed by the service provider based on a limited set of rules. The proposed scheme enables automated profile sharing in OSN's groups with fine grained privacy control, via a multi-secret sharing scheme comprising of layered shares, without relying on a trusted third party. We evaluate the security of the scheme and the resulting profile's level of protection in an OSN scenario. Finally, after showing that erasure codes are efficient for real-time applications and that the security offered by secret sharing schemes can be applied to real-case applications, we derive the theoretical links between MDS codes and secret sharing to enable the implementation of efficient secret sharing scheme built from MDS codes. To illustrate this efficiency, we implement two of these schemes and evaluate their benefits in regard to computation and communication costs in an MPC application
APA, Harvard, Vancouver, ISO, and other styles
35

Gouicem, Mourad. "Conception et implantation d'algorithmes efficaces pour la résolution du dilemme du fabricant de tables sur architecture parallèles." Paris 6, 2013. http://www.theses.fr/2013PA066468.

Full text
Abstract:
Depuis sa normalisation en 1985, l'arithmétique flottante permet d'approcher lescalculs en nombres réels de manière portable et prévisible. Cette deuxièmepropriété est due à une exigence forte sur les opérateurs dont l'implantationest exigée par la norme : leur résultat doit être correctement arrondi. Bien quela norme IEEE 754, dans sa dernière révision de 2008, exige l'implantation desopérations de base, elle ne fait que recommander l'implantation des fonctionsmathématiques élémentaires. Ceci est principalement dû à un problèmecalculatoire difficile nommé le dilemme du fabricant de tables. Dans cette thèse, nous fournissons des algorithmes ainsi que leurs déploiementssur architectures massivement parallèles, notamment les GPU (GraphicsProcessing Units), résolvant ce dilemme pour certains formats de nombresflottants en pratique. Ces déploiements permettent une accélération desperformances d'un facteur supérieur à 50 sur GPU par rapport à une exécutionséquentielle sur CPU. Le principal outil algorithmique que nous utilisons sontles systèmes de numération à base de développements en fraction continue. Cesderniers permettent alors de détecter les cas difficiles pour l'arrondi correctvia de l'arithmétique sur les nombres réels modulo 1. Nous généralisons ensuite l'utilisation de ces systèmes de numération àl'arithmétique modulaire en nombres entiers. Cela permet alors d'obtenir desalgorithmes de multiplication et division modulaires ne reposant que surl'utilisation de l'algorithme d'Euclide pour le calcul de PGCD
Since its standardization in 1985, floating-point arithmetic is commonly used toapproximate computations over the real numbers in a portable and predictableway. This predictability of the result is enabled thanks to a strong requirementon the functions specified by the IEEE Std 754: they must return a correctlyrounded result. Even though the implementation of basic operations is mademandatory, that of elementary functions is only recommended. This is mainly dueto a computationally hard to solve problem called the table maker'sdilemma (TMD). In this thesis, we provides algorithms along with their deployment on massivelyparallel architectures, in particular GPUs (Graphics Processing Units),to solve this problem in practice for some elementary functions andfloating-point formats. These deployments enable a speedup by a factor greaterthan 50 on GPU compared to a sequential execution on CPU. The main algorithmictool we use are the number systems based on continued fraction developments. Thelatter allows to efficiently perform arithmetic over the real numbers modulo 1,and to find the hard cases for correct rounding. We then generalize the use of these number systems to modular arithmetic overinteger numbers. This provide a framework to build algorithms for modularmultiplication and modular division, based only on the classical Euclideanalgorithm
APA, Harvard, Vancouver, ISO, and other styles
36

Ejjaaouani, Ksander. "Conception du modèle de programmation INKS pour la séparation des préoccupations algorithmiques et d’optimisation dans les codes de simulation numérique : application à la résolution du système Vlasov/Poisson 6D." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD037.

Full text
Abstract:
Le modèle de programmation InKS vise à améliorer la lisibilité, la portabilité et la maintenabilité des codes de simulation tout en accroissant la productivité des développeurs de telles applications. Pour atteindre ces objectifs, InKS propose deux langages, chacun dédié à une partie de l’application. Le premier, InKS PIA , permet d’exprimer les aspects algorithmiques d’un code de simulation scientifique tout en laissant les choix d’optimisation de côté. Il s’agit de décrire les fondations de la simulation : son algorithme. Le second langage, InKS PSO , permet aux spécialistes de l’optimisation de réutiliser les informations contenues dans l’algorithme pour exprimer une large variété de choix d’optimisation. Le modèle permet d’écrire de nombreuses versions des optimisations, typiquement une par architecture, à partir d’un unique algorithme. En basant les différentes versions d’un programme sur sa partie invariante, l’algorithme, le modèle InKS limite la réécriture du code, boostant la productivité des développeurs. Suite à la proposition du modèle InKS et de son implémentation, nous avons évalué le modèle au travers de l'implémentation de simulations de plasma: le système Vlasov-Poisson 6D. Cette évaluation a permis de mettre en évidence certaines bonnes propriétés du modèle, notamment en matière de séparation des aspects, mais aussi à montrer sa généralité et ses performances. Pour ce faire, nous avons comparé l'efficacité de deux implémentations du système Vlasov-Poisson 6D, écrite sur InKS ou Fortran. Pour les optimisations les plus importantes, le nombre de lignes dans les deux cas est similaire. Cependant, la présence de l'algorithme permet d'ordonnancer automatiquement, en une simple ligne, un large ensemble de calcul, verbeux et potentiellement sujet aux erreurs. Ainsi, dans les parties non critiques du code, InKS PSO peut résumer une partie du programme de manière concise, permettant de se concentrer sur les parties de calcul intensif. Par ailleurs, en limitant la réécriture du code aux seules optimisations, InKS permet de tester plusieurs stratégies d'optimisations afin d'identifier la plus adaptée à une architecture donnée. En comparaison, dans ces situations, les applications traditionnelles requièrent la réécriture d'une plus grande partie du code, limitant le temps consacré à la recherche des meilleures stratégies d'optimisation
The InKS programming model aims to improve readability portability and maintainability of simulation codes as well as boosting developer productivity. To fulfill these objectives, InKS proposes two languages, each dedicated to a specific concern. First, InKS PIA provides concepts to express simulation algorithms with no concerns for optimization. Once this foundation is set, InKSPSO enables optimization specialists to reuse the algorithm in order to specify the optimization part. The model offers to write numerous versions of the optimizations, typically one per architecture, from a single algorithm. This strategy limits the rewriting of code for each new optimization specification, boosting developer productivity.We have evaluated the InKS programming model by using it to implement the 6D Vlasov-Poisson solver and compared our version with a Fortran one. This evaluation highlighted that, in addition to the separation of concerns, the InKS approach is not more complex that traditional ones while offering the same performance. Moreover, using the algorithm, it is able to generate valid code for non-critical parts of code, leaving optimization specialists more time to focus on optimizing the computation intensive parts
APA, Harvard, Vancouver, ISO, and other styles
37

Chabane, Hinde. "Contribution à la validation expérimentale de l'approche Monte-Carlo de l'interaction neutron-silicium utilisée dans des codes de physique nucléaire dédiées au calcul de SER des mémoires SRAM." Montpellier 2, 2006. http://www.theses.fr/2006MON20164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Legeay, Matthieu. "Utilisation du groupe de permutations d'un code correcteur pour améliorer l'efficacité du décodage." Rennes 1, 2012. http://www.theses.fr/2012REN1S099.

Full text
Abstract:
Les codes correcteurs d'erreur et le problème lié de leur décodage constituent une des variantes envisagées en cryptographie post-quantique. De façon générale, un code aléatoire possède un groupe de permutations bien souvent trivial. Cependant, les codes impliqués dans la construction des cryptosystèmes et des fonctions cryptographiques basées sur les codes correcteurs possèdent généralement un groupe de permutations non-trivial. De plus, peu d'articles de cryptanalyse ne tiennent compte de l'information que représentent ces groupes de permutations. L'idée est donc d'utiliser le groupe de permutations des codes correcteurs afin d'améliorer les algorithmes de décodage. Il existe une multitude de façons de l'appliquer. La première à laquelle nous nous intéressons dans cette thèse est celle utilisant la permutation cyclique appelée “shift” sur du décodage par ensembles d'information. De cette façon, nous reprenons un travail initié par MacWilliams et y apportons une analyse précise de la complexité. Une autre façon est d'utiliser une permutation d'ordre deux afin de créer algébriquement un sous-code des codes de départ. Le décodage dans ce sous-codes, donc de paramètres plus petits, y est plus aisé et permet de récupérer de l'information pour effectuer le décodage dans le code de base. Pour terminer, nous étudions cette dernière technique sur les codes correcteurs bien connus que sont les codes de Reed-Muller permettant ainsi de prolonger les travaux lancés par Sidel'nikov-Pershakov
Error correcting codes and the linked decoding problem are one of the variants considered in post-quantum cryptography. In general, a random code has oftenly a trivial permutation group. However, the codes involved in the construction of cryptosystems and cryptographic functions based on error correcting codes usually have a non-trivial permutation group. Moreover, few cryptanalysis articles use the information contained in these permutation groups. We aim at improving decoding algorithms by using the permutation group of error correcting codes. There are many ways to apply it. The first one we focus on in this thesis is the one that uses the cyclic permutation called “shift” on information set decoding. Thus, we dwell on a work initiated by MacWilliams and put forward a detailed analysis of the complexity. The other way we investigate is to use a permutation of order two to create algebraically a subcode of the first code. Decoding in this subcode, of smaller parameters, is easier and allows to recover information in a perspective of decoding in the first code. Finally, we study the last pattern on the well known correcting codes, i. E. Reed-Muller codes, which extends the work initiated by Sidel'nikov-Pershakov
APA, Harvard, Vancouver, ISO, and other styles
39

Briaud, Pierre. "Algebraic cryptanalysis of post-quantum schemes and related assumptions." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS396.

Full text
Abstract:
Cette thèse étudie l'effet des techniques algébriques sur certains cryptosystèmes post-quantiques. Nous donnons des attaques contre des schémas multivariés et à base de codes en métrique rang dont certains ont été proposés à la standardisation par le NIST. La plupart de ces travaux font intervenir le problème MinRank et des versions structurées. Nous avons introduit de nouvelles modélisations algébriques pour certaines de ces versions et contribué à l'analyse d'autres existantes, notamment la modélisation Support-Minors (Bardet et al., EUROCRYPT 2020). Notre cassage d'un schéma de chiffrement multivarié récent (Raviv et al. , PKC 2021) est aussi une attaque MinRank. Enfin, nous avons étudié d'autres systèmes polynomiaux non reliés à MinRank provenant de la cryptanalyse du Regular Syndrome Decoding (Augot et al. Mycrypt 2005) et de celle d'une primitive symétrique adaptée aux preuves zero-knowledge (Bouvier et al., CRYPTO 2023)
This thesis studies the effect of algebraic techniques on certain post-quantum cryptosystems. We give attacks on multivariate and code-based schemes in the rank metric, some of which have been proposed to standardization by NIST. Most of these works involve the MinRank problem or structured versions of it. We have devised new polynomial modelings for some of these versions and contributed to analysis of existing ones, in particular the Support-Minors modeling (Bardet et al., EUROCRYPT 2020). Our break of a recent multivariate encryption scheme (Raviv et al. , PKC 2021) is also a MinRank attack. Finally, we studied other algebraic systems no longer related to MinRank arising from the cryptanalysis of Regular Syndrome Decoding (Augot et al. Mycrypt 2005) and that of a symmetric primitive tailored to zero-knowledge proofs (Bouvier et al., CRYPTO 2023)
APA, Harvard, Vancouver, ISO, and other styles
40

Roux, Antoine. "Etude d’un code correcteur linéaire pour le canal à effacements de paquets et optimisation par comptage de forêts et calcul modulaire." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS337.

Full text
Abstract:
La transmission fiable de données sur un canal de transmission est un problème récurrent en Informatique. En effet, quel que soit le canal de transmission employé, on observe obligatoirement de la détérioration de l’information transmise, voire sa perte pure et simple. Afin de palier à ce problème, plusieurs solutions ont été apportées, notamment via l’emploi de codes correcteurs. Dans cette thèse, nous étudions un code correcteur développé en 2014 et 2015 pour l’entreprise Thales durant ma deuxième année de Master en apprentissage. Il s’agit d’un code actuellement utilisé par Thales pour fiabiliser une transmission UDP passant par un dispositif réseau, l’Elips-SD. L’Elips-SD est une diode réseau qu’on place sur une fibre optique et qui garantit physiquement que la transmission est unidirectionnelle. Le cas d’utilisation principal de cette diode est de permettre le suivi de la production d’un site sensible, ou encore de superviser son fonctionnement, tout en garantissant à ce site une protection face aux intrusions extérieures. A l’opposé, un autre cas d’utilisation est la transmission de données depuis un ou plusieurs sites non-sécurisés vers un site sécurisé, dont on souhaite s’assurer qu’aucune information ne pourra par la suite fuiter. Le code correcteur que nous étudions est un code correcteur linéaire pour le canal à effacements de paquets, qui a reçu la certification OTAN de la Direction Générale des Armées. Nous l’avons babtisé "Fauxtraut", anagramme de "Fast algorithm using Xor to repair altered unidirectionnal transmissions". Afin d’étudier ce code correcteur, de présenter son fonctionnement et ses performances, et les différentes modifications apportées durant cette thèse, nous établissons tout d’abord un état de l’art des codes correcteurs, en nous concentrant principalement sur les codes linéaires non-MDS, tels que les codes LDPC. Puis nous présentons le fonctionnement de Fauxtraut, et analysons son comportement (complexité, consommation mémoire, performances) par la théorie et par des simulations. Enfin, nous présenterons différentes versions de ce code correcteur développées durant cette thèse, qui aboutissent à d’autres cas d’utilisation, tels que la transmission d’information sur un canal unidirectionnel à erreurs ou sur un canal bidirectionnel, à l’image de ce que permet de faire le protocole H-ARQ. Dans cette partie, nous étudierons notamment le comportement de notre code correcteur via la théorie des graphes : calculer la probabilité de décoder convenablement ou non revient à connaître la probabilité d’apparition de cycles dans le sous-graphe de graphes particuliers, les graphes de Rook et les graphes bipartis complets. Le problème s’énonce simplement et s’avère compliqué, et nous espérons qu’il saura intéresser des chercheurs du domaine. Nous présentons une méthode permettant de calculer exactement cette probabilité pour de petits graphes (qui aboutit à un certain nombre de formules closes), et une fonction tendant asymptotiquement vers cette probabilité pour de plus grands graphes. Nous étudierons aussi la manière de paramétrer automatiquement notre code correcteur par le calcul modulaire et la combinatoire, utilisant la fonction de Landau, qui retourne un ensemble de nombres entiers dont la somme est fixée et le plus commun multiple est maximal. Dans une dernière partie, nous présentons un travail effectué durant cette thèse ayant conduit à une publication dans la revue Theoretical Computer Science. Il concerne un problème non-polynomial de la théorie des graphes : le couplage maximal dans les graphes temporels. Cet article propose notamment deux algorithmes de complexité polynomiale : un algorithme de 2-approximation et un algorithme de kernelisation pour ce problème. L’algorithme de 2- approximation peut notamment être utilisé de manière incrémentale : arêtes du flot de liens nous parviennent les unes après les autres, et on construit la 2-approximation au fur et à mesure de leur arrivée
Reliably transmitting information over a transmission channel is a recurrent problem in Informatic Sciences. Whatever may be the channel used to transmit information, we automatically observe erasure of this information, or pure loss. Different solutions can be used to solve this problem, using forward error correction codes is one of them. In this thesis, we study a corrector code developped in 2014 and 2015 for Thales society during my second year of master of apprenticeship. It is currently used to ensure the reliability of a transmission based on the UDP protocole, and passing by a network diode, Elips-SD. Elip-SD is an optical diode that can be plugged on an optical fiber to physically ensure that the transmission is unidirectional. The main usecase of such a diode is to enable supervising a critical site, while ensuring that no information can be transmitted to this site. At the opposite, another usecase is the transmission from one or multiple unsecured emitters to one secured receiver who wants to ensure that no information can be robbed. The corrector code that we present is a linear corrector code for the binary erasure channel using packets, that obtained the NATO certification from the DGA ("Direction Générale de Armées" in French). We named it Fauxtraut, for "Fast algorithm using Xor to repair altered unidirectional transmissions". In order to study this code, presenting how it works, its performance and the modifications we added during this thesis, we first establish a state of the art of forward error correction, focusing on non-MDS linear codes such as LDPC codes. Then we present Fauxtraut behavior, and analyse it theorically and with simulations. Finally, we present different versions of this code that were developped during this thesis, leading to other usecases such as transmitting reliable information that can be altered instead of being erased, or on a bidirectionnal channel, such as the H-ARQ protocole, and different results on the number of cycles in particular graphs. In the last part, we present results that we obtained during this thesis and that finally lead to an article in the Technical Computer Science. It concerns a non-polynomial problema of Graphs theorie : maximum matching in temporal graphs. In this article, we propose two algorithms with polynomial complexity : a 2-approximation algorithm and a kernelisation algorithm forthis problema
APA, Harvard, Vancouver, ISO, and other styles
41

Daou, Mehdi Pierre. "Développement d’une méthodologie de couplage multimodèle avec changements de dimension : validation sur un cas-test réaliste." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM061/document.

Full text
Abstract:
Les progrès réalisés depuis plusieurs décennies, à la fois en termes de connaissances physiques, numériques et de puissance informatique disponible, permettent de traiter des simulations de plus en plus complexes. Les modélisations d'écoulements fluviaux et maritimes n'échappent pas à cette tendance. Ainsi, pour de très nombreuses applications de ce type, les modélisateurs doivent mettre en œuvre de véritables "systèmes de modélisation", couplant entre eux plusieurs modèles et logiciels, représentant différentes parties du système physique. La mise en place de tels systèmes permet de traiter de nombreuses études, comme par exemple les impacts de construction d'ouvrages d'art ou industriels, ou encore l'évaluation des aléas suite à un événement exceptionnel, etc.Dans le cadre de cette thèse, nous abordons cette problématique en utilisant une méthodologie de type Schwarz, empruntée à la théorie de décomposition de domaine, dont le principe est de ramener la résolution d'un problème complexe à celle de plusieurs sous-problèmes plus simples, grâce à un algorithme itératif. Ces méthodologies sont particulièrement bien adaptées au couplage de codes industriels puisqu'elles sont très peu intrusives.Cette thèse, réalisée dans le cadre d'un contrat CIFRE et grâce au financement du projet européen CRISMA, a été fortement ancrée dans un contexte industriel. Elle a été réalisée au sein d'Artelia en collaboration avec l'équipe AIRSEA du Laboratoire Jean Kuntzmann, avec pour objectif principal de transférer vers Artelia des connaissances et du savoir-faire concernant les méthodologies de couplage de modèles.Nous développons, dans le cadre de cette thèse, une méthodologie de couplage multi-modèles et de dimensions hétérogènes basée sur les méthodes de Schwarz, afin de permettre la modélisation de problématiques complexes dans des cas opérationnels (en complexifiant les problématiques étudiées au fur et à mesure de la thèse). Du point de vue industriel, les couplages mis en place sont fortement contraints par les logiciels utilisés répondant aux besoins d'Artelia (Telemac-3D, Mascaret, InterFOAM, Open-PALM).Nous étudions tout d'abord un couplage 1-D/3-D résolvant des écoulements à surface libre sous un même système de logiciel Telemac-Mascaret. L'avantage d'un tel couplage est une réduction de coût grâce à l'utilisation du modèle 1-D. Toutefois l’une des difficultés liées au changement de dimension réside dans la définition même de la notion de couplage entre des modèles de dimensions différentes. Ceci conduit à une solution couplée qui n’est pas définie d’une façon unique et qui dépend du choix des opérateurs d’interfaces.Puis nous nous intéressons au couplage monophasique/diphasique (1-D/3-D et 3-D/3-D) entre le système de logiciel Telemac-Mascaret et InterFOAM (modèle diphasique VOF), où la difficulté du choix des opérateurs d'interface lors du changement de physique (monophasique/diphasique) est aussi présente. Ce couplage a pour avantage de rendre possible la résolution d’écoulements complexes, que le système Telemac-Mascaret ne peut pas simuler (déferlement, lame d'eau, écoulement en charge, etc.) en utilisant localement InterFOAM avec son coût de calcul très important. Enfin, nous étudions l’application du couplage monophasique/diphasique sur un cas opérationnel d’étude d’ingénierie.Par ailleurs, les travaux effectués lors du projet CRISMA, pour le développement d'une application permettant de simuler les différents aspects d'une crise liée aux risques de submersions marines en Charente Maritime, coordonnés par Artelia, sont également présentés. Le projet CRISMA a pour objectif d'améliorer l'aide à la décision en se basant sur la simulation pour la gestion opérationnelle des situations de crise dans différents domaines du risque naturel et industriel (inondations, feux de forêt, pollutions accidentelles, etc.)
Progress has been performed for decades, in terms of physical knowledge, numerical techniques and computer power, that allows to address more and more complex simulations. Modelling of river and marine flows is no exception to this rule. For many applications, engineers have now to implement complex "modelling systems", coupling several models and software, representing various parts of the physical system. Such modelling systems allow addressing numerous studies, like quantifying the impacts of industrial constructions or highway structures, or evaluating the consequences of an extreme event.In the framwork of the present thesis, we address model coupling techniques using Schwarz's methodology, which is based on domain decomposition methods. The basic principle is to reduce the resolution of a complex problem into several simpler sub-problems, thanks to an iterative algorithm. These methods are particularly well suited for industrial codes, since they are very few intrusive.This thesis was realized within the framework of a CIFRE contract and thanks to the funding of the European CRISMA project and was thus greatly influenced by this industrial context. It was performed within the Artelia company, in collaboration with the AIRSEA team of the Jean Kuntzmann Laboratory, with the main objective of transferring to Artelia some knowledge and expertise regarding coupling methodologies.In this thesis, we develop a methodology for multi-model coupling with heterogeneous dimensions, based on Schwarz's methods, in order to allow modelling of complex problems in operational cases. From the industrial viewpoint, the developed coupled models must use software meeting Artelia's needs (Telemac-3D, Mascaret, InterFOAM, Open-PALM).We firstly study a testcase coupling 1-D and 3-D free surface flows, using the same software system Telemac-Mascaret. The advantage of such coupling is a reduction of the computation cost, thanks to the use of a 1-D model. However the change in the model dimension makes it difficult to define properly the notion of coupling, leading to a coupled solution which is not defined in a unique way but depends on the choice of the interface operators.Then we study a coupling case between a monophasic model and a diphasic model (1-D/3-D and 3-D/3-D), using Telemac-Mascaret and InterFOAM software systems. Once again, the main difficulty lies in the definition of interfaces operators, due to the change in the physics (monophasic / diphasic). Such a coupling makes it possible to solve complex flows that the Telemac-Mascaret system alone cannot address (breaking waves, water blade, closed-conduit flow, etc.), by locally using InterFOAM where necessary (InterFOAM is very expensive in terms of computations). Finally, we implement such a monophasic/diphasic coupling on an operational engineering study.In addition, we also present the work done during the CRISMA project. The overall objective of the CRISMA project was to develop a simulation-based decision support system for the operational crisis management in different domains of natural or industrial risks (floods, forest fires, accidental pollution, etc.). In this context, Artelia coordinated the development of an application allowing to simulate various aspects of crisis linked to flood risks in Charente-Maritime
APA, Harvard, Vancouver, ISO, and other styles
42

Legaux, Joeffrey. "Squelettes algorithmiques pour la programmation et l'exécution efficaces de codes parallèles." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00990852.

Full text
Abstract:
Les architectures parallèles sont désormais présentes dans tous les matériels informatiques, mais les pro- grammeurs ne sont généralement pas formés à leur programmation dans les modèles explicites tels que MPI ou les Pthreads. Il y a un besoin important de modèles plus abstraits tels que les squelettes algorithmiques qui sont une approche structurée. Ceux-ci peuvent être vus comme des fonctions d'ordre supérieur synthétisant le comportement d'algorithmes parallèles récurrents que le développeur peut ensuite combiner pour créer ses programmes. Les développeurs souhaitent obtenir de meilleures performances grâce aux programmes parallèles, mais le temps de développement est également un facteur très important. Les approches par squelettes algorithmiques fournissent des résultats intéressants dans ces deux aspects. La bibliothèque Orléans Skeleton Library ou OSL fournit un ensemble de squelettes algorithmiques de parallélisme de données quasi-synchrones dans le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Nous avons amélioré OSL afin de lui apporter de meilleures performances et une plus grande expressivité. Nous avons voulu analyser le rapport entre les performances des programmes et l'effort de programmation nécessaire sur OSL et d'autres modèles de programmation parallèle. La comparaison rigoureuse entre des programmes parallèles dans OSL et leurs équivalents de bas niveau montre une bien meilleure productivité pour les modèles de haut niveau qui offrent une grande facilité d'utilisation tout en produisant des performances acceptables.
APA, Harvard, Vancouver, ISO, and other styles
43

He, Guanlin. "Parallel algorithms for clustering large datasets on CPU-GPU heterogeneous architectures." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG062.

Full text
Abstract:
Clustering, qui consiste à réaliser des groupements naturels de données, est une tâche fondamentale et difficile dans l'apprentissage automatique et l'exploration de données. De nombreuses méthodes de clustering ont été proposées dans le passé, parmi lesquelles le clustering en k-moyennes qui est une méthode couramment utilisée en raison de sa simplicité et de sa rapidité.Le clustering spectral est une approche plus récente qui permet généralement d'obtenir une meilleure qualité de clustering que les k-moyennes. Cependant, les algorithmes classiques de clustering spectral souffrent d'un manque de passage à l'échelle en raison de leurs grandes complexités en nombre d'opérations et en espace mémoire nécessaires. Ce problème de passage à l'échelle peut être traité en appliquant des méthodes d'approximation ou en utilisant le calcul parallèle et distribué.L'objectif de cette thèse est d'accélérer le clustering spectral et de le rendre applicable à de grands ensembles de données en combinant l'approximation basée sur des données représentatives avec le calcul parallèle sur processeurs CPU et GPU. En considérant différents scénarios, nous proposons plusieurs chaînes de traitement parallèle pour le clustering spectral à grande échelle. Nous concevons des algorithmes et des implémentations parallèles optimisés pour les modules de chaque chaîne proposée : un algorithme parallèle des k-moyennes sur CPU et GPU, un clustering spectral parallèle sur GPU avec un format de stockage creux, un filtrage parallèle sur GPU du bruit dans les données, etc. Nos expériences variées atteignent de grandes performances et valident le passage à l'échelle de chaque module et de nos chaînes complètes
Clustering, which aims at achieving natural groupings of data, is a fundamental and challenging task in machine learning and data mining. Numerous clustering methods have been proposed in the past, among which k-means is one of the most famous and commonly used methods due to its simplicity and efficiency.Spectral clustering is a more recent approach that usually achieves higher clustering quality than k-means. However, classical algorithms of spectral clustering suffer from a lack of scalability due to their high complexities in terms of number of operations and memory space requirements. This scalability challenge can be addressed by applying approximation methods or by employing parallel and distributed computing.The objective of this thesis is to accelerate spectral clustering and make it scalable to large datasets by combining representatives-based approximation with parallel computing on CPU-GPU platforms. Considering different scenarios, we propose several parallel processing chains for large-scale spectral clustering. We design optimized parallel algorithms and implementations for each module of the proposed chains: parallel k-means on CPU and GPU, parallel spectral clustering on GPU using sparse storage format, parallel filtering of data noise on GPU, etc. Our various experiments reach high performance and validate the scalability of each module and the complete chains
APA, Harvard, Vancouver, ISO, and other styles
44

Mounsif, Mostafa. "Le problème des moments par la méthode de l'entropie maximale." Montpellier 2, 1992. http://www.theses.fr/1992MON20171.

Full text
Abstract:
On utilise la methode de l'entropie maximale pour obtenir une solution du probleme classique des moments dans le cas ou seulement un nombre fini des valeurs des moments est connu qui, en plus, sont affectes d'erreurs. De meme une solution analytique des donnees au probleme de la reconstruction du spectre d'une matrice d auto-adjointe positivement definie a partir d'un nombre insuffisant de ses traces (moments) #n=trd#n
APA, Harvard, Vancouver, ISO, and other styles
45

Hamidi, Hamid-Reza. "Couplage à hautes performances de codes parallèles et distribués." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00010971.

Full text
Abstract:
L'accroissement rapide de la puissance des calculateurs actuels et leur interconnexion en grappes et grilles de calcul à l'aide de réseaux rapides, permettent d'envisager, en mode de production, l'utilisation de plusieurs codes de calculs numériques couplés pour la simulation de phénomènes physiques plus complexes. Dans le but d'obtenir des résultats toujours plus précis, un nouveau type de simulation numérique, dont l'objectif est de simuler plusieurs
physiques en même temps, est apparu. Ce type d'application est appelé "couplage de code". En effet, plusieurs codes (physiques) sont couplés ou interconnectés an qu'ils communiquent pour réaliser la simulation.
Cette thèse s'intéresse aux problématiques liées au couplage à hautes performances de codes parallèles et distribués. L'obtention des performances repose sur la conception d'applications distribuées dont certains composants sont parallélisés et dont les communications sont efcaces. L'idée de bas de cette thèse est d'utiliser un langage de programmation parallèle orienté flot de données (ici Athapascan) dans deux modèles de conception d'applications distribuées ; "modèle appel de procédure à distance (RPC)" et "modèle orienté flux de données (stream-oriented)". Les contributions apportées par ce travail de recherche sont les suivants :

- Utilisation d'un langage de flot de données dans un grille RPC de calcul ;
Dans le cadre de projet HOMA, les extensions au modèle RPC ont porté d'une part sur la sémantique de contrôle et de communication et d'autre part sur les supports exécutifs pour mieux exploiter le parallélisme. Les résultats théoriques de ces extensions pour une implantation sur le bus logiciel CORBA à l'aide du moteur exécutif KAAPI d'Athapascan et pour l'architecture homogène comme grappe de PC, sont présentés sous la forme d'un modèle de coût d'exécution. Les expériences (élémentaires et sur une application réelle) ont validé ce modèle de coût.

- Extension d'un modèle mémoire partagée pour couplage de codes ;
An d'étendre la sémantique d'accès aux données partagées du langage Athapascan, nous avons proposé la notion de "collection temporelle". Ce concept permet de décrire la sémantique d'accès de type flux de données. La "collection spatiale" permet de mieux exploiter les données parallèles. Pour préciser la sémantique associée à ces nouvelles notions, nous avons donné une nouvelle définition pour la donnée partagée. Puis dans le cadre de cette définition, nous avons défini trois types de données partagées ; "séquentielle", "collection temporelle" et "collection spatiale".
APA, Harvard, Vancouver, ISO, and other styles
46

Touchette, Dave. "Interactive quantum information theory." Thèse, 2015. http://hdl.handle.net/1866/12341.

Full text
Abstract:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Quantum information theory has developed tremendously over the past two decades, with analogues and extensions of the source coding and channel coding theorems for unidirectional communication. Meanwhile, for interactive communication, a quantum analogue of communication complexity has been developed, for which quantum protocols can provide exponential savings over the best possible classical protocols for some classical tasks. However, quantum information is much more sensitive to noise than classical information. It is therefore essential to make the best use possible of quantum resources. In this thesis, we take an information-theoretic point of view on interactive quantum protocols and study the interactive analogues of source compression and noisy channel coding. The setting we consider is that of quantum communication complexity: Alice and Bob want to perform some joint quantum computation while minimizing the required amount of communication. Local computation is deemed free. Our results are split into three distinct chapters, and these are organized in such a way that each can be read independently. Given its central role in the context of interactive compression, we devote a chapter to the task of quantum state redistribution. In particular, we prove lower bounds on its communication cost that are robust in the context of interactive communication. We also prove one-shot, one-message achievability bounds. In a subsequent chapter, we define a new, fully quantum notion of information cost for interactive protocols and a corresponding notion of information complexity for bipartite tasks. It characterizes how much quantum information, rather than quantum communication, Alice and Bob must exchange in order to implement a given bipartite task. We prove many structural properties for these quantities, and provide an operational interpretation for quantum information complexity as the amortized quantum communication complexity. In the special case of classical inputs, we provide an alternate characterization of information cost that provides an answer to the following question about quantum protocols: what is the cost of forgetting classical information? Two applications are presented: the first general multi-round direct-sum theorem for quantum protocols, and a tight lower bound, up to polylogarithmic terms, for the bounded-round quantum communication complexity of the disjointness function. In a final chapter, we initiate the study of the interactive quantum capacity of noisy channels. Since techniques to distribute entanglement are well-studied, we focus on a model with perfect pre-shared entanglement and noisy classical communication. We show that even in the harder setting of adversarial errors, we can tolerate a provably maximal error rate of one half minus epsilon, for an arbitrarily small epsilon greater than zero, at positive communication rates. It then follows that random noise channels with positive capacity for unidirectional transmission also have positive interactive quantum capacity. We conclude with a discussion of our results and further research directions in interactive quantum information theory.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography