Academic literature on the topic 'Codes de calcul chaînés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Codes de calcul chaînés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Codes de calcul chaînés"

1

Hassnaoui, Yonas. "Les codes de calcul de haute précision : quand le nucléaire met au pot commun." Revue Générale Nucléaire, no. 6 (November 2020): 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Full text
Abstract:
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
APA, Harvard, Vancouver, ISO, and other styles
2

Gandrille, P., J. P. Van Dorsselaere, and J. S. Lamy. "Simulation des accidents graves : scénarios et codes de calcul." Revue Générale Nucléaire, no. 1 (January 2010): 79–87. http://dx.doi.org/10.1051/rgn/20101079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Robinet, Jean-Claude, Axel Ducoulombier, and Frédéric Plas. "Etude qualitative de codes de calcul THM européens par intercomparaisons." Revue Française de Génie Civil 3, no. 7-8 (January 1999): 673–91. http://dx.doi.org/10.1080/12795119.1999.9692673.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Come, B. "Le projet communautaire COSA : un exemple d’intercomparaison de codes de calcul géomécaniques pour le sel." Revue Française de Géotechnique, no. 40 (1987): 23–31. http://dx.doi.org/10.1051/geotech/1987040023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Côme, B. "La deuxième phase du projet communautaire COSA (intercomparaison de codes de calcul géomécaniques pour le sel)." Revue Française de Géotechnique, no. 51 (1990): 31–40. http://dx.doi.org/10.1051/geotech/1990051031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Blaise, P., and D. Bernard. "L’apport des maquettes critiques pour la physique des réacteurs de puissance : données nucléaires et codes de calcul." Revue Générale Nucléaire, no. 6 (November 2011): 23–28. http://dx.doi.org/10.1051/rgn/20116023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Lahlou, K., and M. Lachemi. "Prédiction de la charge ultime de colonnes mixtes constituées de tubes remplis de béton à haute résistance : étude comparative des codes de calcul." Canadian Journal of Civil Engineering 26, no. 4 (August 1, 1999): 476–88. http://dx.doi.org/10.1139/l99-010.

Full text
Abstract:
Columns are the preferred structural application of high and very high strength concrete. The confinement of this type of concrete in steel tubes presents definite advantages from both a technical and an economical perspective. However, the present design code provisions do not allow this type of material to be considered. In certain codes, the validity limits have recently been widened, but these limits remain below the present performance of high-strength concrete. The results of a large experimental program aiming at studying the behavior of concrete columns confined in steel tubes were used in order to compare predictions by different design methods, and thus verify their applicability beyond their conventional validity limits. Based on these experimental results, a new equation is proposed to predict the ultimate load of concrete columns confined in a steel tube.Key words: high-strength concrete, ultimate load, design codes, mixed columns, confinement, slenderness.[Journal translation]
APA, Harvard, Vancouver, ISO, and other styles
8

de Carlan, L., J. M. Bordy, and J. Gouriou. "Intercomparaison européenne d’utilisateurs de codes Monte Carlo pour le calcul d’incertitudes sur le kerma dans l’air déterminé dans un faisceau de césium-137." Radioprotection 46, no. 3 (July 2011): 305–15. http://dx.doi.org/10.1051/radiopro/2011106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

BARBIER, F. "VALIDATION SUR MODÈLE RÉDUIT AU 1/100 DES CODES DE CALCUL DE PROPAGATION AU VOISINAGE D'UN SOL, AVEC ET SANS ÉCRAN, EN ACOUSTIQUE EXTÉRIEURE." Le Journal de Physique Colloques 51, no. C2 (February 1990): C2–1161—C2–1164. http://dx.doi.org/10.1051/jphyscol:19902272.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Samb, Ndongo, Georges El-Saikaly, and Omar Chaallal. "Effet de la rigidité, du taux du polymère renforcé de fibres (PRF) et de l’armature transversale interne sur la contribution à la résistance à l’effort tranchant d’un renfort en PRF collé en surface : état de l’art et besoins en recherche." Canadian Journal of Civil Engineering 47, no. 11 (November 2020): 1276–96. http://dx.doi.org/10.1139/cjce-2019-0409.

Full text
Abstract:
Le présent article traite du renforcement en cisaillement des poutres en béton armé (BA) à l’aide de matériaux composites à base de polymère renforcé de fibres (PRF) collé en surface. La première partie de l’article fait le point sur l’évolution des codes et des normes nord-américains quant à la résistance à l’effort tranchant des poutres en BA renforcées à l’aide de composite en PRF collé en surface. La seconde partie présente une analyse exhaustive des paramètres majeurs influençant la contribution du PRF à la résistance à l’effort tranchant. Elle présente également une comparaison des prédictions des normes de conception en vigueur (ACI 440.2R 2017; CSA/S6 2019; CSA/S806 2012; fib-TG9.3 2001) avec les résultats des essais expérimentaux rapportés dans la littérature. Il ressort de l’étude que des paramètres majeurs influençant le comportement à l’effort tranchant n’ont fait l’objet, à ce jour, que de peu d’investigations. Parmi ces paramètres, on peut citer en particulier : (i) la présence et le taux de l’acier transversal interne et (ii) le nombre de plis (couches) des PRF collés en surface. Cela peut expliquer les écarts observés entre les résistances prédites par les règles de calcul et celles obtenues à partir de tests. À la suite de ces observations, une base de données extraite à partir des études expérimentales a été élaborée dans le cadre de cette étude. Les résultats obtenus mettent en évidence et confirment l’existence d’une interaction entre le composite en PRF collé en surface et l’acier transversal interne quant à la reprise des efforts tranchants. Ils mettent également en évidence l’existence d’une rigidité optimale du PRF au-delà de laquelle le gain en résistance attribué au PRF collé en surface est plafonné.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Codes de calcul chaînés"

1

Balde, Oumar. "Calage bayésien sous incertitudes des outils de calcul scientifique couplés : application en simulation numérique du combustible." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES035.

Full text
Abstract:
Dans le cadre des études des comportements des systèmes physiques complexes tels que les réacteurs nucléaires, les simulateurs numériques sont devenus des outils essentiels pour la modélisation, l'analyse, la compréhension et la prévision des phénomènes physiques impliqués. Ces simulateurs prennent souvent un grand nombre de paramètres en entrée, lesquels sont souvent entachés d'incertitudes, ce qui se traduit par des sorties également incertaines. Ainsi, il est crucial avant toute utilisation dans un contexte industriel, de quantifier et de réduire les différentes sources d'incertitude. Le processus de calage de modèle vise ainsi à réduire et à quantifier au mieux les incertitudes des paramètres en entrée, en se basant sur les données expérimentales et simulées disponibles. Il existe deux types de calage de modèle : le calage déterministe et le calage bayésien. Le calage bayésien est une méthode qui repose sur une approche probabiliste pour quantifier les incertitudes paramétriques par des distributions de probabilité. Dans cette thèse, nous nous sommes intéressés au calage bayésien conditionnel de deux modèles numériques chaînés simulant le comportement du combustible dans un réacteur à eau pressurisée. Plus précisément, l'objectif est de réaliser un calage bayésien des paramètres incertains du second modèle conditionnellement à toute l'incertitude a posteriori des paramètres incertains du premier modèle numérique. Pour ce faire, nous avons proposé une nouvelle méthodologie d'inférence bayésienne basée sur des processus gaussiens et appelée GP-LinCC (pour Gaussian Process and Linearization-based Conditional Calibration). La mise en œuvre pratique de cette nouvelle approche a nécessité le développement d'une méthode d'analyse de sensibilité afin de sélectionner préalablement les paramètres à caler du second modèle tout en prenant en compte toute l'incertitude des paramètres du premier modèle. Cette méthode d'analyse de sensibilité globale en support au calage conditionnel est basée sur des mesures de dépendance de type HSIC (Hilbert-Schmidt Independence Criterion). Enfin, ces deux contributions méthodologiques ont été appliquées au simulateur chaîné ALCYONE-CARACAS afin de quantifier les incertitudes paramétriques du code CARACAS simulant le comportement des gaz de fission conditionnellement à l'incertitude de la conductivité thermique du modèle thermique
Nowadays, numerical models have become essential tools for modeling, understanding, analyzing and predicting the physical phenomena involved in complex physical systems such as nuclear power plants. Such numerical models often take a large number of uncertain input parameters, thus leading to uncertain outputs as well. Before any industrial use of those numerical models, an important step is therefore to reduce and quantify these uncertainties as much as possible. In this context, the goal of model calibration is to reduce and quantify the uncertainties of the input parameters based on available experimental and simulated data. There are two types of model calibration: deterministic calibration and Bayesian calibration. The latter quantifies parameter uncertainties by probability distributions. This thesis deals with the conditional Bayesian calibration of two chained numerical models. The objective is to calibrate the uncertain parameters of the second model while taking into account the uncertain parameters of the first model. To achieve this, a new Bayesian inference methodology called GP-LinCC (Gaussian Process and Linearization-based Conditional Calibration) was proposed. In practice, the deployment of this new approach has required a preliminary step of global sensitivity analysis to identify the most significant input parameters to calibrate in the second model, while considering the uncertainty of the parameters of the first model. To do this, an integrated version of the HSIC (Hilbert-Schmidt Independence Criterion) was used to define well-suited sensitivity measures and the theoretical properties of their nested Monte Carlo estimators were investigated. Finally, these two methodological contributions have been applied to the multi-physics application called ALCYONE, to quantify the uncertain parameters of the CARACAS code (second model) simulating the behavior of fission gases in the pressurized water reactor conditionally on the uncertainty of the parameter conductivity of the thermal model (first model)
APA, Harvard, Vancouver, ISO, and other styles
2

Skersys, Gintaras. "Calcul du groupe d'automorphismes des codes : détermination de l'équivalence des codes." Limoges, 1999. http://www.theses.fr/1999LIMO0021.

Full text
Abstract:
Nous presentons dans ce travail un algorithme pour calculer les groupes de permutations et d'automorphismes d'un code et pour determiner l'equivalence et l'equivalence par permutation de deux codes. Il est base sur la methode des partitions de jeffrey s. Leon et sur l'algorithme de separation du support de nicolas sendrier. La methode des partitions de leon nous semble tres technique, nous avons donc essaye de la clarifier en la presentant d'une maniere differente de celle de leon. Notre algorithme est limite par la dimension du hull (l'intersection du code avec son dual) des codes concernes qui doit etre inferieure a une vingtaine. Si c'est le cas, notre algorithme fonctionne efficacement, par exemple, pour les codes lineaires binaires de longueur jusqu'a 10000. De plus, nous avons etudie la dimension du hull des codes cycliques. Nous avons montre que la dimension moyenne du hull des codes cycliques de longueur n donnee sur un corps fini f q donne est soit nulle, soit de l'ordre de n, et elle est si et seulement si n est un diviseur d'un entier de la forme q m + 1, m 0. Nous avons etudie l'ensemble des diviseurs des entiers de cette forme.
APA, Harvard, Vancouver, ISO, and other styles
3

Montan, Séthy. "Sur la validation numérique des codes de calcul industriels." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00913570.

Full text
Abstract:
L'étude de la qualité numérique est cruciale pour les codes industriels tels que ceux développés à EDF R&D. C'est d'autant plus important dans le contexte actuel où les simulations numériques sont faites sur des architectures pouvant exécuter des milliards d'opérations flottantes par seconde. Des études ont montré que la bibliothèque CADNA est un outil adapté à la validation numérique des codes industriels. Toutefois, CADNA ne peut être utilisée simplement sur des grands codes industriels, ces derniers faisant appel à des bibliothèques externes (MPI, BLACS, BLAS, LAPACK). Il est donc nécessaire de développer des extensions compatibles avec l'outil CADNA. L'implémentation de ces diverses extensions pose un problème de performance, la complexité algorithmique et la taille des logiciels de calcul numérique impliquant d'importants temps d'exécution. A titre d'exemple, l'implémentation directe de CADNA dans la routine de produit matriciel DGEMM des BLAS, introduit un surcoût supérieur à 1000 pour une matrice carrée de taille 1024. Les raisons de ce surcoût sont expliquées dans ce mémoire. Nous présentons également, à travers notre routine DgemmCADNA, la méthodologie pour réduire ce surcoût. Cette routine a permis de réduire ce surcoût d'un facteur 1100 à un facteur 35 par rapport à la version GotoBLAS. Une deuxième partie de notre travail a été consacrée à l'étude de la qualité numérique du code Telemac-2D. Pour valider entièrement le code, nous avons implémenté une extension de CADNA pour le standard MPI. Le débogage numérique à l'aide de CADNA a montré que plus de 30% des instabilités détectées apparaissent dans les produits scalaires. L'utilisation des algorithmes de produit scalaire compensé permet d'améliorer la précision des résultats sans dégrader les performances du code.
APA, Harvard, Vancouver, ISO, and other styles
4

Montan, Séthy Akpémado. "Sur la validation numérique des codes de calcul industriels." Paris 6, 2013. http://www.theses.fr/2013PA066751.

Full text
Abstract:
L'étude de la qualité numérique est cruciale pour les codes industriels tels que ceux développés à EDF R&D. C'est d'autant plus important dans le contexte actuel où les simulations numériques sont faites sur des architectures pouvant exécuter des milliards d’opérations flottantes par seconde. Des études ont montré que la bibliothèque CADNA est un outil adapté à la validation numérique des codes industriels. Toutefois, CADNA ne peut être utilisée simplement sur des grands codes industriels, ces derniers faisant appel à des bibliothèques externes (MPI, BLACS, BLAS, LAPACK). Il est donc nécessaire de développer des extensions compatibles avec l’outil CADNA. L'implémentation de ces diverses extensions pose un problème de performance, la complexité algorithmique et la taille des logiciels de calcul numérique impliquant d'importants temps d'exécution. A titre d'exemple, l'implémentation directe de CADNA dans la routine de produit matriciel DGEMM des BLAS, introduit un surcoût supérieur à 1000 pour une matrice carrée de taille 1024. Les raisons de ce surcoût sont expliquées dans ce mémoire. Nous présentons également, à travers notre routine DgemmCADNA, la méthodologie pour réduire ce surcoût. Cette routine a permis de réduire ce surcoût d'un facteur 1100 à un facteur 35 par rapport à la version GotoBLAS. Une deuxième partie de notre travail à été consacrée à l'étude de la qualité numérique du code Telemac-2D. Pour valider entièrement le code, nous avons implémenté une extension de CADNA pour le standard MPI. Le débogage numérique à l'aide de CADNA a montré que plus de 30% des instabilités détectées apparaissent dans les produits scalaires. L'utilisation des algorithmes de produit scalaire compensé permet d'améliorer la précision des résultats sans dégrader les performances du code
Numerical verification of industrial codes, such as those developed atEDF R&D, is required to estimate the precision and the quality ofcomputed results, even more for code running in HPC environments wheremillions of instructions are performed each second. These programsusually use external libraries (MPI, BLACS, BLAS, LAPACK). Inthis context, it is required to have a tool as nonintrusive aspossible to avoid rewriting the original code. In this regard, theCADNA library, which implement the Discrete Stochastic Arithmetic,appears to be one of a promising approach for industrial applications. In the first part of this work, we are interested in an efficientimplementation of the BLAS routine DGEMM (General Matrix Multiply)implementing Discrete Stochastic Arithmetic. The implementation of abasic algorithm for matrix product using stochastic types leads to anoverhead greater than 1000 for a matrix of 1024*1024 comparedto the standard version and commercial versions of xGEMM. Here, wedetail different solutions to reduce this overhead and the results wehave obtained. A new routine DgemmCADNA have been designed. This routine has allowed to reduce the overhead from 1100 to 35compare to optimized BLAS implementations (GotoBLAS). Then, we focus on the numerical verification of Telemac-2D computedresults. Performing a numerical validation with the CADNA libraryshows that more than 30% of the numerical instabilities occurringduring an execution come from the dot product function. A moreaccurate implementation of the dot product with compensated algorithmsis presented in this work. We show that implementing these kind ofalgorithms, in order to improve the accuracy of computed results doesnot alter the code performance
APA, Harvard, Vancouver, ISO, and other styles
5

Baladron, Pezoa Javier. "Exploring the neural codes using parallel hardware." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847333.

Full text
Abstract:
The aim of this thesis is to understand the dynamics of large interconnected populations of neurons. The method we use to reach this objective is a mixture of mesoscopic modeling and high performance computing. The rst allows us to reduce the complexity of the network and the second to perform large scale simulations. In the rst part of this thesis a new mean eld approach for conductance based neurons is used to study numerically the eects of noise on extremely large ensembles of neurons. Also, the same approach is used to create a model of one hypercolumn from the primary visual cortex where the basic computational units are large populations of neurons instead of simple cells. All of these simulations are done by solving a set of partial dierential equations that describe the evolution of the probability density function of the network. In the second part of this thesis a numerical study of two neural eld models of the primary visual cortex is presented. The main focus in both cases is to determine how edge selection and continuation can be computed in the primary visual cortex. The dierence between the two models is in how they represent the orientation preference of neurons, in one this is a feature of the equations and the connectivity depends on it, while in the other there is an underlying map which denes an input function. All the simulations are performed on a Graphic Processing Unit cluster. Thethesis proposes a set of techniques to simulate the models fast enough on this kind of hardware. The speedup obtained is equivalent to that of a huge standard cluster.
APA, Harvard, Vancouver, ISO, and other styles
6

Picot, Romain. "Amélioration de la fiabilité numérique de codes de calcul industriels." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS242.

Full text
Abstract:
De nombreux travaux sont consacrés à la performance des simulations numériques, or il est important de tenir compte aussi de l'impact des erreurs d'arrondi sur les résultats produits. Ces erreurs d'arrondi peuvent être estimées grâce à l'Arithmétique Stochastique Discrète (ASD), implantée dans la bibliothèque CADNA. Les algorithmes compensés permettent d'améliorer la précision des résultats, sans changer le type numérique utilisé. Ils ont été conçus pour être généralement exécutés en arrondi au plus près. Nous avons établi des bornes d'erreur pour ces algorithmes en arrondi dirigé et montré qu'ils peuvent être utilisés avec succès avec le mode d'arrondi aléatoire de l'ASD. Nous avons aussi étudié l’impact d’une précision cible des résultats sur les types numériques des différentes variables. Nous avons développé l'outil PROMISE qui effectue automatiquement ces modifications de types tout en validant les résultats grâce à l’ASD. L'outil PROMISE a ainsi fourni de nouvelles configurations de types mêlant simple et double précision dans divers programmes numériques et en particulier dans le code MICADO développé à EDF. Nous avons montré comment estimer avec l'ASD les erreurs d'arrondi générées en quadruple précision. Nous avons proposé une version de CADNA qui intègre la quadruple précision et qui nous a permis notamment de valider le calcul de racines multiples de polynômes. Enfin nous avons utilisé cette nouvelle version de CADNA dans l'outil PROMISE afin qu'il puisse fournir des configurations à trois types (simple, double et quadruple précision)
Many studies are devoted to performance of numerical simulations. However it is also important to take into account the impact of rounding errors on the results produced. These rounding errors can be estimated with Discrete Stochastic Arithmetic (DSA), implemented in the CADNA library. Compensated algorithms improve the accuracy of results, without changing the numerical types used. They have been designed to be generally executed with rounding to nearest. We have established error bounds for these algorithms with directed rounding and shown that they can be used successfully with the random rounding mode of DSA. We have also studied the impact of a target precision of the results on the numerical types of the different variables. We have developed the PROMISE tool which automatically performs these type changes while validating the results thanks to DSA. The PROMISE tool has thus provided new configurations of types combining single and double precision in various programs and in particular in the MICADO code developed at EDF. We have shown how to estimate with DSA rounding errors generated in quadruple precision. We have proposed a version of CADNA that integrates quadruple precision and that allowed us in particular to validate the computation of multiple roots of polynomials. Finally we have used this new version of CADNA in the PROMISE tool so that it can provide configurations with three types (single, double and quadruple precision)
APA, Harvard, Vancouver, ISO, and other styles
7

Duclos-Cianci, Guillaume. "Outils de calcul quantique tolérant aux fautes." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6770.

Full text
Abstract:
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
APA, Harvard, Vancouver, ISO, and other styles
8

Schmitt, Maxime. "Génération automatique de codes adaptatifs." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD029.

Full text
Abstract:
Dans cette thèse nous proposons une interface de programmation pour aider les développeurs dans leur tâche d'optimisation de programme par calcul approché. Cette interface prend la forme d'extensions aux langages de programmation pour indiquer au compilateur quelles parties du programme peuvent utiliser ce type de calcul. Le compilateur se charge alors de transformer les parties du programme visées pour rendre l'application adaptative, allouant plus de ressources aux endroits où une précision importante est requise et utilisant des approximations où la précision peut être moindre. Nous avons automatisé la découverte des paramètres d'optimisation que devrait fournir l'utilisateur pour les codes à stencil, qui sont souvent rencontrés dans des applications de traitement du signal, traitement d'image ou simulation numérique. Nous avons exploré des techniques de compression automatique de données pour compléter la génération de code adaptatif. Nous utilisons la transformée en ondelettes pour compresser les données et obtenir d'autres informations qui peuvent être utilisées pour trouver les zones avec des besoins en précision plus importantes
In this thesis we introduce a new application programming interface to help developers to optimize an application with approximate computing techniques. This interface is provided as a language extension to advise the compiler about the parts of the program that may be optimized with approximate computing and what can be done about them. The code transformations of the targeted regions are entirely handled by the compiler to produce an adaptive software. The produced adaptive application allocates more computing power to the locations where more precision is required, and may use approximations where the precision is secondary. We automate the discovery of the optimization parameters for the special class of stencil programs which are common in signal/image processing and numerical simulations. Finally, we explore the possibility of compressing the application data using the wavelet transform and we use information found in this basis to locate the areas where more precision may be needed
APA, Harvard, Vancouver, ISO, and other styles
9

Damblin, Guillaume. "Contributions statistiques au calage et à la validation des codes de calcul." Thesis, Paris, AgroParisTech, 2015. http://www.theses.fr/2015AGPT0083.

Full text
Abstract:
La validation des codes de calcul a pour but d’évaluer l’incertitude de prédiction d’un système physique à partir d’un code de calcul l’approchant et des mesures physiques disponibles. D’une part, le code peut ne pas être une représentation exacte de la réalité. D’autre part, le code peut être entaché d’une incertitude affectant la valeur de certains de ses paramètres, dont l’estimation est appelée « calage de code ». Après avoir dressé un état de l’art unifié des principales procédures de calage et de validation des codes de calcul, nous proposons plusieurs contributions à ces deux problématiques lorsque le code est appréhendé comme une fonction boîte noire coûteuse. D’abord, nous développons une technique bayésienne de sélection de modèle pour tester l’existence d’une fonction d’erreur entre les réponses du code et le système physique, appelée « erreur de code ». Ensuite, nous présentons de nouveaux algorithmes destinés à la construction de plans d’expériences séquentiels afin de rendre plus précis le calage d’un code de calcul basé sur l’émulation par un processus gaussien. Enfin, nous validons un code de calcul utilisé pour prédire la consommation énergétique d’un bâtiment au cours d’une période de temps. Nous utilisons les résultats de l’étude de validation pour apporter une solution à un problème de statistique décisionnelle dans lequel un fournisseur d’électricité doit s’engager auprès de ses clients sur des prévisions moyennes de consommation. En utilisant la théorie bayésienne de la décision, des estimateurs ponctuels optimaux sont calculés
Code validation aims at assessing the uncertainty affecting the predictions of a physical system by using both the outputs of a computer code which attempt to reproduce it and the available field measurements. In the one hand, the codemay be not a perfect representation of the reality. In the other hand, some code parameters can be uncertain and need to be estimated: this issue is referred to as code calibration. After having provided a unified view of the main procedures of code validation, we propose several contributions for solving some issues arising in computer codes which are both costly and considered as black-box functions. First, we develop a Bayesian testing procedure to detect whether or not a discrepancy function, called code discrepancy, has to be taken into account between the code outputs and the physical system. Second, we present new algorithms for building sequential designs of experiments in order to reduce the error occurring in the calibration process based on a Gaussian process emulator. Lastly, a validation procedure of a thermal code is conducted as the preliminary step of a decision problem where an energy supplier has to commit for an overall energy consumption forecast to customers. Based on the Bayesian decision theory, some optimal plug-in estimators are computed
APA, Harvard, Vancouver, ISO, and other styles
10

Régnier, Gilles. "Aide à l'utilisation des codes de calcul des structures : une programmation déclarative." Paris 6, 1990. http://www.theses.fr/1990PA066664.

Full text
Abstract:
L'utilisation des codes de calcul des structures a atteint un tel degré de complexité que des systèmes d'aide a la génération des données et a l'analyse des résultats deviennent nécessaires. Pour situer les concepts qui sont présentes dans cette étude autour d'un code de calcul industriel, différentes approches sont décrites. Afin de bien spécifier le noyau du système d'aide, plusieurs outils d'assistance a l'utilisation du code pour des calculs typiques ont été développes. Le besoin de représenter une grande quantité de connaissances de nature diverse (technologique, physique, numérique, informatique) et le développement incrémental se sont révèles incontournables. L'étude montre que les systèmes a base de connaissances constituent la méthodologie logicielle appropriée, et que les techniques de l'intelligence artificielle offrent la souplesse de représentation requise. Enfin la réalisation d'une interface avec le code permet, a l'aide d'un langage a objets, de déclarer, avec leurs fonctionnalités, les connaissances descriptives générales ainsi que celles propres au problème a résoudre. Les connaissances déductives, représentant essentiellement l'expertise d'un problème, sont déclares dans des règles filtrant sur la base d'objets
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Codes de calcul chaînés"

1

M, Blann, and OECD Nuclear Energy Agency, eds. International code comparison for intermediate energy nuclear data = Comparaison internationale de codes pour le calcul de données nucléaires aux énergies intermédiaires. Paris: Nuclear Energy Agency, Organisation for Economic Co-operation and Development, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

(Editor), R. L. Roche, and James R. Farr (Editor), eds. Design Codes and Structural Mechanics. Elsevier Applied Science, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Codes de calcul chaînés"

1

"18 Les codes de calcul du facteur de multiplication." In Fission nucléaire, réaction en chaîne et criticité, 199–214. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2000-9-021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"18 Les codes de calcul du facteur de multiplication." In Fission nucléaire, réaction en chaîne et criticité, 199–214. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2000-9.c021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Diop, Cheikh M’Backé, Aimé Tsilanizara, and Tan Dat Huynh. "Chapitre 11 : Évolution isotopique : méthodes et codes de calcul." In Radioprotection et ingénierie nucléaire, 345–54. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0163-3-013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Diop, Cheikh M’Backé, Aimé Tsilanizara, and Tan Dat Huynh. "Chapitre 11 : Évolution isotopique : méthodes et codes de calcul." In Radioprotection et ingénierie nucléaire, 345–54. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0163-3.c013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

BLOT, Jean-Pierre. "Équations fondamentales pour le calcul des antennes." In Ondes électromagnétiques 2, 37–88. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9007.ch2.

Full text
Abstract:
Le calcul des performances des antennes repose sur les équations de Maxwell. Cette étude présente les principales équations et formulations indispensables à l’élaboration des codes numériques, en fonction de divers paramètres : le matériau constitutif des antennes, le milieu matériel, le champ proche, le champ lointain, les antennes dipôles, les antennes à ouverture, etc.
APA, Harvard, Vancouver, ISO, and other styles
6

Diop, Cheikh M’Backé, Maurice Chiron, and Michel Boyard. "Chapitre 10 : Propagation des rayonnements : méthodes et codes de calcul." In Radioprotection et ingénierie nucléaire, 263–344. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0163-3-012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Diop, Cheikh M’Backé, Maurice Chiron, and Michel Boyard. "Chapitre 10 : Propagation des rayonnements : méthodes et codes de calcul." In Radioprotection et ingénierie nucléaire, 263–344. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0163-3.c012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

BESSON, Jacques. "Méthodes numériques pour la rupture ductile." In Modélisation numérique en mécanique fortement non linéaire, 149–88. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9081.ch4.

Full text
Abstract:
Ce chapitre présente les principaux modèles permettant de décrire la rupture ductile des métaux. Il présente les principaux problèmes de mise en œuvre de ces modèles dans les codes de calcul par éléments finis. L’origine de ces problèmes est liée au caractère fortement adoucissant des modèles employés. Certaines des méthodes de régularisation permettant de les résoudre sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
9

"Index des réalisations (installations, projets, sites nucléaires, organismes, sociétés, associations, enseignements, livres [italiques] et codes de calcul [petites capitales])." In Du noyau atomique au réacteur nucléaire, 233–40. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1038-3-030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"Index des réalisations (installations, projets, sites nucléaires, organismes, sociétés, associations, enseignements, livres [italiques] et codes de calcul [petites capitales])." In Du noyau atomique au réacteur nucléaire, 233–40. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1038-3.c030.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Codes de calcul chaînés"

1

Chapoutier, Nicolas, and Davide Mancusi. "Les codes Monte-Carlo : focus TRIPOLI." In Radioprotection : méthodes et outils de calcul en propagation des rayonnements. Les Ulis, France: EDP Sciences, 2019. http://dx.doi.org/10.1051/jtsfen/2019rad02.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography