Segui questo link per vedere altri tipi di pubblicazioni sul tema: Calcul conscient de la précision.

Tesi sul tema "Calcul conscient de la précision"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Calcul conscient de la précision".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Piri, Ali. "Design space exploration for accuracy-aware computing". Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. http://www.theses.fr/2024ECDL0052.

Testo completo
Abstract (sommario):
L'augmentation de la complexité des applications à grande échelle, telles que le calcul scientifique et l'analyse de données, a entraîné une demande croissante de ressources informatiques. Les méthodes traditionnelles deviennent insuffisantes pour gérer le volume de données en constante augmentation. Cette thèse traite de l'écart entre la croissance des données et les avancées des processeurs en introduisant des stratégies visant à améliorer l'efficacité computationnelle sans sacrifier les performances. Un accent particulier est mis sur le calcul approximatif (AxC), qui exploite la tolérance aux erreurs inhérente à de nombreuses applications, telles que le traitement multimédia et l'apprentissage automatique, pour équilibrer les performances avec des niveaux d'erreur acceptables. Nous avons réalisé une revue complète des approximations fonctionnelles au niveau des circuits dans divers multiplicateurs, afin d'approfondir notre compréhension des techniques utilisées. Nous avons également discuté des principaux critères de précision pour évaluer la performance et la fiabilité de ces opérateurs aux niveaux des applications et des systèmes. En outre, nous avons passé en revue les méthodes automatiques issues de la littérature qui soutiennent une adoption plus large des circuits approximatifs, en soulignant la nécessité d'une approche systématique pour leur conception. La contribution principale de cette thèse est l'introduction du calcul approximatif sensible aux entrées, qui fait progresser la conception de systèmes efficaces en optimisant la performance et la consommation d'énergie tout en maintenant une précision acceptable. L'objectif était de développer des méthodes largement applicables, mais spécifiquement optimisées pour certaines charges de travail. Initialement, l'identification manuelle des sections de circuits à approximations a mis en évidence des défis de scalabilité et la nécessité d'une expertise spécialisée. Pour y remédier, une approche de conception automatisée a été mise en œuvre, optimisant les circuits en fonction de distributions d'entrées spécifiques. Testée avec le filtre FIT, cette approche a constamment amélioré la précision et l'efficacité énergétique par rapport aux méthodes traditionnelles. L'approximation sensible aux entrées est particulièrement utile pour les applications avec des schémas d'entrées prévisibles, telles que les systèmes embarqués, l'inférence d'apprentissage automatique et le traitement de signaux en temps réel. Cette thèse explore également la relation entre le calcul approximatif et la résilience des réseaux neuronaux profonds (DNNs), cruciaux dans de nombreuses applications. Elle analyse comment les DNNs, en particulier ceux implémentés sur des matrices systoliques personnalisées, réagissent aux fautes provenant des multiplicateurs approximatifs, en utilisant un cadre d'injection de fautes pour une simulation efficace. L'étude a révélé que bien que les DNNs soient intrinsèquement tolérants aux fautes, les approximations peuvent avoir un impact significatif sur la précision. Une analyse au niveau des bits a révélé que les bits critiques, comme le bit le plus significatif (MSB), sont particulièrement affectés. De plus, le compromis entre l'efficacité énergétique et la résilience a été souligné, montrant que les économies d'énergie issues du calcul approximatif doivent être équilibrées avec le potentiel de dégradation des performances
The increasing complexity of large-scale applications, such as scientific computing and data analytics, has driven growing demands for computational resources. Traditional methods are becoming insufficient to handle the surging data volume. This thesis addresses the gap between data growth and processor advancements by introducing strategies for improving computational efficiency without sacrificing performance. A key focus is Approximate Computing (AxC), which leverages the inherent error tolerance in many applications—such as multimedia processing and machine learning—to balance performance with acceptable error levels. We conducted a comprehensive review of circuit-level functional approximations in various multipliers, aiming to deepen our understanding of the techniques used. We also discussed key accuracy metrics for evaluating the performance and reliability of these operators at the application and system levels. In addition, we reviewed automatic methods from the literature that support the broader adoption of approximate circuits, highlighting the need for a systematic approach to their design. The key contribution of the thesis is the introduction of input-aware approximate computing, which advances the design of efficient systems by optimizing performance and energy consumption while maintaining acceptable accuracy. The goal was to develop methods that are broadly applicable but specifically optimized for certain workloads. Initially, manual identification of circuit sections for approximation highlighted scalability challenges and the need for specialized expertise. To address this, an automated design approach was implemented, optimizing circuits based on specific input distributions. Tested with the FIT filter, this approach consistently improved accuracy and energy efficiency compared to traditional methods. Input-aware approximation is especially valuable for applications with predictable input patterns, such as embedded systems, machine learning inference, and real-time signal processing. This thesis also explores the relationship between approximate computing and the resilience of deep neural networks (DNNs), which are crucial in many applications. It analyzes how DNNs, especially those implemented on custom systolic arrays, respond to faults from approximate multipliers, using a Fault Injector Framework for efficient simulation. The study found that while DNNs are inherently fault-tolerant, approximations can significantly impact accuracy. A per-bit analysis revealed that critical bits, like the most significant bit (MSB), are particularly affected. Additionally, the trade-off between energy efficiency and resilience was highlighted, showing that energy savings from approximate computing must be balanced with the potential for performance degradation
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Gratton, Serge. "Outils théoriques d'analyse du calcul à précision finie". Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Testo completo
Abstract (sommario):
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Brunin, Maxime. "Étude du compromis précision statistique-temps de calcul". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Testo completo
Abstract (sommario):
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Vaccon, Tristan. "Précision p-adique". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Testo completo
Abstract (sommario):
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Braconnier, Thierry. "Sur le calcul des valeurs propres en précision finie". Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Testo completo
Abstract (sommario):
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Reymond, Hugo. "Modèle d'exécution conscient de l'énergie pour les systèmes intermittents". Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/3c8fed27-1fb5-4f22-9b91-9d9ac508082d.

Testo completo
Abstract (sommario):
Les capteurs sans batterie exploitent l'énergie ambiante pour fonctionner dans des lieux isolés, où le remplacement des batteries est impossible. L'énergie récoltée, stockée dans un condensateur, est insuffisante pour une exécution continue, entraînant des pertes d'alimentation qui effacent les données volatiles (registres processeur et mémoire vive), empêchant la progression des programmes. Pour répondre à ce défi, nous présentons SCHEMATIC, une technique qui insère automatiquement des points de sauvegarde dans le code. Lorsqu'un de ces derniers est atteint, l'état du programme est sauvegardé dans une mémoire non volatile. Pour diminuer la taille des sauvegardes SCHEMATIC alloue certaines données en mémoire non volatile, de manière automatique. Ensuite, contrairement aux méthodes existantes qui reprennent l'exécution une fois le condensateur plein, nous proposons EarlyBird, qui ajuste le réveil pour reprendre l'exécution dès que suffisamment d'énergie a été récoltée pour atteindre le prochain point de sauvegarde. De cette manière, EarlyBird permet une reprise plus rapide de l'exécution et une réduction de la consommation d'énergie. À travers ces travaux, nous démontrons que les approches conscientes de l'énergie permettent une exécution sûre et efficace des programmes sur capteurs sans batterie
Battery-less sensors harness ambient energy to operate in isolated locations where replacing batteries is impossible. The harvested energy, stored in a capacitor, is insufficient for continuous operation, leading to power losses that wipe volatile data (processor registers and RAM), thereby preventing program progression. In this thesis we present SCHEMATIC, a technique that automatically inserts checkpoints into the code. When a checkpoint is reached, the program state is saved in non-volatile memory. To reduce checkpoint size, SCHEMATIC automatically allocates certain data to non-volatile memory. Then, unlike existing methods that resume execution only once the capacitor is fully charged, we propose EarlyBird, which adjusts the wake-up threshold to resume execution as soon as enough energy has been harvested to reach the next checkpoint. This approach, allows for quicker execution resumption and reduced energy consumption. Through this work, we demonstrate that energy-aware approaches enable safe and efficient execution of programs on battery-less sensors
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Pirus, Denise. "Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O". Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Testo completo
Abstract (sommario):
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Nguyen, Hai-Nam. "Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Boucher, Mathieu. "Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté". Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Testo completo
Abstract (sommario):
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Khali, Hakim. "Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Fall, Mamadou Mourtalla. "Contribution à la détermination de la précision de calcul des algorithmes de traitements numériques". Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0173.

Testo completo
Abstract (sommario):
Les travaux effectués dans le cadre de cette thèse contribuent à la détermination de la précision de calcul des algorithmes de traitements numériques, par l'élaboration d'une nouvelle approche théorique et pratique de certification d'algorithmes. Par certification d'algorithme, nous entendons : 1) la quantification des erreurs de sortie lorsque celles d'entrée sont connues, 2) la détermination de la stabilité d'un algorithme dans tout son domaine de validité, 3) la détermination des points critiques de l'algorithme, 4) la comparaison et la graduation de nombreux algorithmes censés résoudre le même problème. L'algorithme à certifier sera considéré comme une boite noire dont on ne peut voir que les entrées et les sorties. A partir de son comportement en fonction des entrées données, nous construisons un modèle mathématique permettant de l'identifier, en tout point de son domaine de définition. La nouvelle approche élaborée est fondée sur la théorie des problèmes inverses associée à celle des probabilités.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Haddaoui, Khalil. "Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066176/document.

Testo completo
Abstract (sommario):
La simulation numérique adaptative d'écoulements présentant des phénomènes multi-échelles s'effectue généralement au moyen d'une hiérarchie de modèles différents selon l'échelle mise en jeu et le niveau de précision requis. Ce type de modélisation numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l'analyse et à la mise en œuvre de méthodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d'équations aux dérivées partielles hyperboliques.Dans une première partie, nous développons et analysons une méthode numérique dédiée au couplage interfacial des équations d'Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d'une loi de pression distincte et l'interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l'interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l'interface (typiquement des pertes de charge) et sa définition permet l'application de plusieurs stratégies de couplage. Notre méthode d'approximation repose sur les techniques d'approximation par relaxation de type Suliciu. La résolution exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L'implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu'il est possible de contrôler l'écoulement à l'interface de couplage en calculant des poids solutions de problèmes d'optimisation sous contraintes.La deuxième partie de cette thèse est dédiée au développement de deux schémas numériques d'ordre arbitrairement élevé en espace pour l'approximation des solutions stationnaires du problème mixte associé au modèle de Jin et Xin. Nos schémas d'approximation reposent sur la méthode de Galerkin discontinue. L’approximation des solutions du problème mixte par notre premier schéma fait intervenir uniquement des erreurs de discrétisation tandis que notre deuxième schéma est constitué à la fois d'erreurs de modélisation et de discrétisation. L'erreur de modélisation provient du remplacement, dans certaines régions spatiales, de la résolution du modèle de relaxation par celle de l'équation scalaire équilibre associée. Sous l'hypothèse d'une interface de couplage éventuellement caractéristique, la résolution du problème de Riemann associé au modèle couplé nous permet de construire un schéma numérique d'ordre arbitrairement élevé prenant en compte l'éventuelle existence de couches limites à l'interface de couplage. Enfin, la mise en œuvre de ces méthodes nous permet d'analyser quantitativement et qualitativement les erreurs de modélisation et de discrétisation commises lors de l'utilisation du schéma couplé. Ces erreurs sont fonction du niveau de raffinement de maillage utilisé, du degré de polynôme choisi et de la position de l'interface de couplage
The adaptive numerical simulation of multiscale flows is generally carried out by means of a hierarchy of different models according to the specific scale into play and the level of precision required. This kind of numerical modeling involves complex multiscale coupling problems. This thesis is thus devoted to the development, analysis and implementation of efficient methods for solving coupling problems involving hyperbolic models.In a first part, we develop and analyze a coupling algorithm for one-dimensional Euler systems. Each system of conservation laws is closed with a different pressure law and the coupling interface separating these models is assumed fix and thin. The transmission conditions linking the systems are modelled thanks to a measure source term concentrated at the coupling interface. The weight associated to this measure models the losses of conservation and its definition allows the application of several coupling strategies. Our method is based on Suliciu's relaxation approach. The exact resolution of the Riemann problem associated to the relaxed system allows us to design an extremely accurate scheme for the coupling model. This scheme preserves equilibrium solutions of the coupled problem and can be used for general pressure laws. Several numerical experiments assess the performances of our scheme. For instance, we show that it is possible to control the flow at the coupling interface when solving constrained optimization problems for the weights.In the second part of this manuscript we design two high order numerical schemes based on the discontinuous Galerkin method for the approximation of the initial-boundary value problem associated to Jin and Xin's model. Our first scheme involves only discretization errors whereas the second approximation involves both modeling and discretization errors. Indeed in the second approximation, we replace in some regions the resolution of the relaxation model by the resolution of its associated scalar equilibrium equation. Under the assumption of a possible characteristic coupling interface, we exactly solve the Riemann problem associated to the coupled model. This resolution allows us to design a high order numerical scheme which captures the possible boundary layers at the coupling interface. Finally, the implementation of our methods enables us to analyze quantitatively and qualitatively the modeling and discretization errors involved in the coupled scheme. These errors are functions of the mesh size, the degree of the polynomial approximation and the position of the coupling interface
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Rizzo, Axel. "Amélioration de la précision du formulaire DARWIN2.3 pour le calcul du bilan matière en évolution". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0306/document.

Testo completo
Abstract (sommario):
Le formulaire de calcul DARWIN2.3, basé sur l’évaluation des données nucléaires JEFF-3.1.1, est dédié aux applications du cycle du combustible nucléaire. Il est validé expérimentalement pour le calcul du bilan matière par comparaison avec des mesures de rapports isotopiques réalisées sur des tronçons de combustibles irradiés en réacteur de puissance. Pour certains nucléides d’intérêt pour le cycle du combustible, la validation expérimentale montre que le calcul de la concentration en évolution pourrait être amélioré. C’est dans ce contexte que les travaux de thèse ont été menés : après s’être assuré que le biais Calcul / Expérience (C/E) est majoritairement dû aux données nucléaires, deux voies d’amélioration du calcul du bilan matière sont proposées et étudiées.La première voie d’amélioration s’attache à la ré-estimation des données nucléaires par assimilation des données intégrales. Elle consiste en l'assimilation des données provenant de la validation expérimentale du calcul du bilan matière avec DARWIN2.3 à l'aide du code d’évaluation des données nucléaires CONRAD. Des recommandations d’évolution d’évaluation, qui découlent de l’analyse de ces travaux, sont effectuées.La deuxième voie d’amélioration consiste à proposer de nouvelles expériences pour valider les données nucléaires impliquées dans la formation de nucléides pour lesquels on ne dispose pas d’expérience pour valider le calcul de la concentration avec DARWIN2.3. La faisabilité d’une expérience dédiée à la validation des sections efficaces des réactions de formation du 14C, à savoir 14N(n,p) et 17O(n,α), a été démontrée en ce sens
The DARWIN2.3 calculation package, based on the use of the JEFF-3.1.1 nuclear data library, is devoted to nuclear fuel cycle studies. It is experimentally validated for fuel inventory calculation thanks to dedicated isotopic ratios measurements realized on in-pile irradiated fuel rod cuts. For some nuclides of interest for the fuel cycle, the experimental validation work points out that the concentration calculation could be improved. The PhD work was done in this framework: having verified that calculation-to-experiment (C/E) biases are mainly due to nuclear data, two ways of improving fuel inventory calculation are proposed and investigated. It consists on one hand in improving nuclear data using the integral data assimilation technique. Data from the experimental validation of DARWIN2.3 fuel inventory calculation are assimilated thanks to the CONRAD code devoted to nuclear data evaluation. Recommendations of nuclear data evaluations are provided on the basis of the analysis of the assimilation work. On the other hand, new experiments should be proposed to validate nuclear data involved in the buildup of nuclides for which there is no post-irradiation examination available to validate DARWIN2.3 fuel inventory calculation. To that extent, the feasibility of an experiment dedicated to the validation of the ways of formation of 14C, which are 14N(n,p) and 17O(n,α) reaction cross sections, was demonstrated
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Hasni, Hamadi. "Logiciels vectoriels d'optimisation de problèmes non contraints de grandes tailles et calcul de la précision". Paris 6, 1986. http://www.theses.fr/1986PA066477.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Madeira, De Campos Velho Pedro Antonio. "Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00625497.

Testo completo
Abstract (sommario):
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Madeira, de Campos Velho Pedro Antonio. "Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle". Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM027/document.

Testo completo
Abstract (sommario):
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants
Large-Scale Distributed Computing (LSDC) systems are in production today to solve problems that require huge amounts of computational power or storage. Such systems are composed by a set of computational resources sharing a communication infrastructure. In such systems, as in any computing environment, specialists need to conduct experiments to validate alternatives and compare solutions. However, due to the distributed nature of resources, performing experiments in LSDC environments is hard and costly. In such systems, the execution flow depends on the order of events which is likely to change from one execution to another. Consequently, it is hard to reproduce experiments hindering the development process. Moreover, resources are very likely to fail or go off-line. Yet, LSDC archi- tectures are shared and interference among different applications, or even among processes of the same application, affects the overall application behavior. Last, LSDC applications are time consuming, thus conducting many experiments, with several parameters is often unfeasible. Because of all these reasons, experiments in LSDC often rely on simulations. Today we find many simulation approaches for LSDC. Most of them objective specific architectures, such as cluster, grid or volunteer computing. Each simulator claims to be more adapted for a particular research purpose. Nevertheless, those simulators must address the same problems: modeling network and managing computing resources. Moreover, they must satisfy the same requirements providing: fast, accurate, scalable, and repeatable simulations. To match these requirements, LSDC simulation use models to approximate the system behavior, neglecting some aspects to focus on the desired phe- nomena. However, models may be wrong. When this is the case, trusting on models lead to random conclusions. In other words, we need to have evidence that the models are accurate to accept the con- clusions supported by simulated results. Although many simulators exist for LSDC, studies about their accuracy is rarely found. In this thesis, we are particularly interested in analyzing and proposing accurate models that respect the requirements of LSDC research. To follow our goal, we propose an accuracy evaluation study to verify common and new simulation models. Throughout this document, we propose model improvements to mitigate simulation error of LSDC simulation using SimGrid as case study. We also evaluate the effect of these improvements on scalability and speed. As a main contribution, we show that intuitive models have better accuracy, speed and scalability than other state-of-the art models. These better results are achieved by performing a thorough and systematic analysis of problematic situations. This analysis reveals that many small yet common phenomena had been neglected in previous models and had to be accounted for to design sound models
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Tisseur, Françoise. "Méthodes numériques pour le calcul d'éléments spectraux : étude de la précision, la stabilité et la parallélisation". Saint-Etienne, 1997. http://www.theses.fr/1997STET4006.

Testo completo
Abstract (sommario):
Cette thèse est constituée de deux parties. La première traite de la méthode QR pour le calcul de valeurs propres de matrices quelconques, de tailles modérées. Les contributions originales à ce sujet sont a) une preuve rigoureuse de sa stabilité inverse, b) un nouveau critère d'arrêt justifié par une analyse mathématique. La seconde partie traite de la méthode de Yau et Lu pour le calcul de valeurs propres de matrices symétriques réelles de grandes tailles. Les contributions dans ce travail à ce sujet sont a) une compréhension mathématique accrue de la méthode, b) sa validation numérique, c) une proposition de parallélisation
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Khadraoui, Sofiane. "Calcul par intervalles et outils de l’automatique permettant la micromanipulation à précision qualifiée pour le microassemblage". Thesis, Besançon, 2012. http://www.theses.fr/2012BESA2027/document.

Testo completo
Abstract (sommario):
Les systèmes micro mécatroniques intègrent dans un volume très réduit des fonctions de natures différentes (électrique, mécanique, thermique, magnétique ou encore optique). Ces systèmes sont des produits finaux ou sont dans des systèmes de taille macroscopique. La tendance à la miniaturisation et à la complexité des fonctions à réaliser conduit à des microsystème en trois dimensions et constitué´es de composants provenant de processus de (micro)fabrication parfois incompatibles. L’assemblage microbotique est une réponse aux challenges de leur réalisation. Pour assurer les opérations d’ assemblage avec des précisions et des résolutions élevées, des capteurs adaptés au micro monde et des outils particuliers de manipulation doivent être utilisés. Les éléments principaux constituants les systèmes de micromanipulation sont les micro-actionneurs.Ces derniers sont souvent faits à base de matériaux actifs parmi lesquels les matériaux Piézoélectriques . Les actionneurs piézoélectriques sont caractérisés par leur très haute résolution (souvent nanométrique), leur grande bande-passante (plus du kHz pour certains micro-actionneurs) et leur grande densité de force. Tout ceci en fait des actionneurs particulièrement intéressants pour le micro-assemblage et la micromanipulation. Cependant,ces actionneurs présentent, en plus de leur comportement non-linéaire, une forte dépendance à l’environnement et aux tâches considérées. De plus, ces tâches de micromanipulation et de micro-assemblage sont confrontées à un manque de capteurs précis et compatibles avec les dimensions du micromonde. Ceci engendre des incertitudes sur les paramètres du élaboré lors de l’identification. En présence du verrou technologique lié à la réalisation des capteurs et des propriétés complexes des actionneurs, il est difficile d’obtenir les performances de haut niveau requises pour réussir les tâches de micromanipulation et de micro-assemblage. C’est notamment la mise au point d’outils de commande convenables qui permet d’atteindre les niveaux de précision et de résolution nécessaires.Les travaux de cette thèse s’inscrivent dans ce cadre. Afin de réussir les tâches de micromanipulation et de micro-assemblage, plusieurs méthodes de commande prenant en compte des incertitudes liées au modèle, comme les approches de commande robustes de type H-inf ont déjà utilisées pour commander les actionneurs piézoélectriques.L’un des inconvénients majeurs de ces méthodes est la dérivation de régulateurs d’ordre élevé qui sont coûteux en calcul et peuvent difficilement être embarqués dans les microsystèmes. Afin de prendre en compte les incertitudes paramétriques des modèles des Systèmes à commander, nous proposons une solution alternative basée sur l’utilisation du calcul par intervalles. Ces techniques du calcul par intervalles sont combinées avec les outils de l’automatique pour modéliser et commander les microsystèmes. Nous chercherons également à montrer que l’utilisation de ces techniques permet d’associer la robustesse et la simplicité des correcteurs dérivés
Micromechatronic systems integrate in a very small volume functions with differentnatures. The trend towards miniaturization and complexity of functions to achieve leadsto 3-dimensional microsystems. These 3-dimensional systems are formed by microroboticassembly of various microfabricated and incompatible components. To achieve theassembly operations with high accuracy and high resolution, adapted sensors for themicroworld and special tools for the manipulation are required. The microactuators arethe main elements that constitute the micromanipulation systems. These actuators areoften based on smart materials, in particular piezoelectric materials. The piezoelectricmaterials are characterized by their high resolution (nanometric), large bandwidth (morethan kHz) and high force density. This why the piezoelectric actuators are widely usedin the micromanipulation and microassembly tasks. However, the behavior of the piezoelectricactuators is non-linear and very sensitive to the environment. Moreover, thedeveloppment of the micromanipulation and the microassembly tasks is limited by thelack of precise and compatible sensors with the microworld dimensions. In the presenceof the difficulties related to the sensors realization and the complex characteristics ofthe actuators, it is difficult to obtain the required performances for the micromanipulationand the microassembly tasks. For that, it is necessary to develop a specific controlapproach that achieves the wanted accuracy and resolution.The works in this thesis deal with this problematic. In order to success the micromanipulationand the microassembly tasks, robust control approaches such as H∞ havealready been tested to control the piezoelectric actuators. However, the main drawbacksof these methods is the derivation of high order controllers. In the case of embedded microsystems,these high order controllers are time consuming which limit their embeddingpossibilities. To address this problem, we propose in our work an alternative solutionto model and control the microsystems by combining the interval techniques with theautomatic tools. We will also seek to show that the use of these techniques allows toderive robust and low-order controllers
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Rey, Valentine. "Pilotage de stratégies de calcul par décomposition de domaine par des objectifs de précision sur des quantités d’intérêt". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN018/document.

Testo completo
Abstract (sommario):
Ces travaux de recherche ont pour objectif de contribuer au développement et à l'exploitation d'outils de vérification des problèmes de mécanique linéaires dans le cadre des méthodes de décomposition de domaine sans recouvrement. Les apports de cette thèse sont multiples : * Nous proposons d'améliorer la qualité des champs statiquement admissibles nécessaires à l'évaluation de l'estimateur par une nouvelle méthodologie de reconstruction des contraintes en séquentiel et par des optimisations du calcul de l'intereffort en cadre sous-structuré.* Nous démontrons des bornes inférieures et supérieures de l'erreur séparant l'erreur algébrique (due au solveur itératif) de l'erreur de discrétisation (due à la méthode des éléments finis) tant pour une mesure globale que pour une quantité d'intérêt. Cette séparation permet la définition d'un critère d'arrêt objectif pour le solveur itératif.* Nous exploitons les informations fournies par l'estimateur et les espaces de Krylov générés pour mettre en place une stratégie auto-adaptative de calcul consistant en une chaîne de résolution mettant à profit remaillage adaptatif et recyclage des directions de recherche. Nous mettons en application le pilotage du solveur par un objectif de précision sur des exemples mécaniques en deux dimensions
This research work aims at contributing to the development of verification tools in linear mechanical problems within the framework of non-overlapping domain decomposition methods.* We propose to improve the quality of the statically admissible stress field required for the computation of the error estimator thanks to a new methodology of stress reconstruction in sequential context and thanks to optimizations of the computations of nodal reactions in substructured context.* We prove guaranteed upper and lower bounds of the error that separates the algebraic error (due to the iterative solver) from the discretization error (due to the finite element method) for both global error measure mentand goal-oriented error estimation. It enables the definition of a new stopping criterion for the iterative solver which avoids over-resolution.* We benefit the information provided by the error estimator and the Krylov subspaces built during the resolution to set an auto-adaptive strategy. This strategy consists in sequel of resolutions and takes advantage of adaptive remeshing and recycling of search directions .We apply the steering of the iterative solver by objective of precision on two-dimensional mechanical examples
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Benmouhoub, Farah. "Optimisation de la précision numérique des codes parallèles". Thesis, Perpignan, 2022. http://www.theses.fr/2022PERP0009.

Testo completo
Abstract (sommario):
Les nombres flottants sont utilisés à la place des nombres réels pour les calculs sur ordinateurs. L'utilisation de ces nombres introduit des erreurs d'arrondi qui sont en général acceptables dans la mesure où le résultat produit par la machine est proche de celui que l'on aurait obtenu en utilisant des nombres réels. Cependant, elles peuvent aussi être amplifiées par propagation, dénuant de sens le résultat d'un calcul, ce qui peut avoir des conséquences catastrophiques dans de nombreux domaines d'application comme par exemple l'aéronautique ou la finance. La précision des calculs en nombres flottants dépend de nombreux facteurs: types d'opérations effectuées, valeurs et types de données employés, ordinateurs utilisés. En outre, la précision des calculs dépend fortement de l'ordre dans lequel sont effectuées les opérations et le parallélisme démultiplie les ordonnancements possibles. Le sujet de thèse proposé concerne ce dernier point : améliorer la précision de codes de calcul scientifique massivement parallèles tels que ce que l'on trouve dans le domaine du HPC (High Performance Computing) Ces dernières années, des techniques automatiques ont été mises au point afin de valider et réécrire les codes de calcul scientifique afin de les rendre plus précis. Ces techniques rencontrent un vif intérêt tant scientifique qu'industriel. Cependant les techniques existantes acceptent uniquement des programmes séquentiels ce qui exclut les nombreux codes de calcul intensif développés dans le domaine du HPC. Or ces codes parallèles, utilisés pour réaliser des simulations numériques complexes dans de nombreux domaines scientifiques et techniques, sont particulièrement sujets aux erreurs introduites par les nombres flottants car le parallélisme modifie l'ordre dans lequel sont effectués les calculs, voire rend cet ordre aléatoire. Les résultats obtenus peuvent alors être altérés ou non reproductibles (plusieurs si mulations identiques donnant des résultats différents)
In high performance computing, nearly all the implementations and published experiments use foating-point arithmetic. However, since foating-point numbers are finite approximations of real numbers, it may result in hazards because of the accumulated errors.These round-off errors may cause damages whose gravity varies depending on the critical level of the application. Parallelism introduces new numerical accuracy problems due to the order of operations in this kind of systems. The proposed thesis subject concerns this last point: improving the precision of massively parallel scientific computing codes such as those found in the field of HPC (High Performance Computing)
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Muller, Antoine. "Contributions méthodologiques à l'analyse musculo-squelettique de l'humain dans l'objectif d'un compromis précision performance". Thesis, Rennes, École normale supérieure, 2017. http://www.theses.fr/2017ENSR0007/document.

Testo completo
Abstract (sommario):
L'analyse musculo-squelettique est un outil de plus en plus utilisé dans les domaines d'application tels que l'ergonomie, la rééducation ou le sport. Cette analyse permet une estimation des efforts articulaires et des tensions musculaires mises en jeu au cours du mouvement. Les modèles et méthodes que cette analyse exploite conduisent à des résultats de plus en plus réalistes. Cela a pour conséquence de limiter les performances de ces logiciels : le temps de calcul augmente et il est nécessaire de mettre en place des protocoles ainsi que qu’un post-traitement des données long et complexe pour adapter les modèles au sujet. Enfin, de tels logiciels nécessitent une expertise importante des utilisateurs pour être pleinement opérationnels. Ces différents points limitent dans la plupart des cas l'utilisation de ces logiciels au domaine de la recherche.Dans l'objectif de démocratiser l'utilisation des analyses musculo-squelettiques, cette thèse propose des contributions permettant d’améliorer les performances de telles analyses en conservant un bon niveau de précision, ainsi que des contributions permettant une calibration spécifique au sujet des modèles facile à mettre en œuvre. Tout d'abord, dans un souci de maîtrise complète des outils de l’analyse du mouvement, cette thèse développe une approche globale sur l'ensemble des étapes qui la constitue : les étapes de cinématique, de dynamique et d'estimation des efforts musculaires. Pour chacune de ces étapes, des méthodes de résolution en temps rapide ont été proposées. Une méthode de résolution de la question de la répartition des efforts musculaires utilisant une base de données pré-calculée est notamment largement développée. De plus, un processus complet de calibration utilisant uniquement le matériel disponible dans une salle d'analyse de mouvement classique a été développé, où les données utilisées sont issues de capture de mouvement ainsi que de plateformes de force
Musculoskeletal analysis becomes popular in applications fields such as ergonomics, rehabilitation or sports. This analysis enables an estimation of joint reaction forces and muscles tensions generated during motion. Models and methods used in such an analysis give more and more accurate results. As a consequence, performances of software are limited: computation time increases, and experimental protocols and associated post-process are long and tedious to define subject-specific models. Finally, such software need a high expertise level to be driven properly.In order to democratize the use of musculoskeletal analysis for a wide range of users, this thesis proposes contributions enabling better performances of such analyses and preserving accuracy, as well as contributions enabling an easy subject-specific model calibration. Firstly, in order to control the whole analysis process, the thesis is developed in a global approach of all the analysis steps: kinematics, dynamics and muscle forces estimation. For all of these steps, quick analysis methods have been proposed. Particularly, a quick muscle force sharing problem resolution method has been proposed, based on interpolated data. Moreover, a complete calibration process, based on classical motion analysis tools available in a biomechanical lab has been developed, based on motion capture and force platform data
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Bouraoui, Rachid. "Calcul sur les grands nombres et VLSI : application au PGCD, au PGCD étendu et à la distance euclidienne". Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343219.

Testo completo
Abstract (sommario):
Dans le cadre de cette thèse nous avons étudie l'implantation des algorithmes de l'arithmétique en ligne. En particulier, la réalisation de deux circuits destines aux applications exigeant une précision infinie est exposée. En effet, dans de nombreux domaines tels que la génération de nombres aléatoires, cryptographie, calcul formel, arithmétique exacte, réduction de fraction en précision infinie, calcul modulaire, traitement d'images..., les opérateurs classiques manquent d'efficacité. Face a ce type de problèmes, un remède peut être apporte par le calcul en ligne selon lequel les calculs sont faits en introduisant les opérandes en série chiffre a chiffre en notation redondante. Nous obtenons ainsi un haut degré de parallélisme et une précision variable linéairement. Le premier circuit présenté implante un algorithme de pgcd nomme Euclide offrant, d'après les simulations, le meilleur compromis cout matériel/performance. Il donne également les coefficients de Bezout. Ce circuit est appelé a résoudre les problèmes lies au temps de calcul du pgcd par les méthodes classiques rencontrées dans beaucoup d'applications. Une deuxième application montre la possibilité de fusionner des opérateurs en ligne afin d'obtenir un opérateur complexe. L'exemple traite dans cette thèse est celui de la distance euclidienne: z=x#2+y#2 utilisée, entre autres, pour la resolution du moindre carre des systèmes linéaires
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Rolland, Luc Hugues. "Outils algébriques pour la résolution de problèmes géométriques et l'analyse de trajectoire de robots parallèles prévus pour des applications à haute cadence et grande précision". Nancy 1, 2003. http://www.theses.fr/2003NAN10180.

Testo completo
Abstract (sommario):
Les robots parallèles sont apparus sur les simulateurs de vol en raison de leurs dynamiques élevées. On cherche à les appliquer maintenant comme machine-outil. Les exigences de précision sont très sévères. Le 1er objectif est de trouver une méthode de résolution des problèmes géométriques. Peu d'implantations ont réussi à résoudre le cas général de la plateforme de Gough. On répertorie 8 formulations algébriques du modèle géométrique. La méthode exacte proposée est fondée sur le calcul de la base de Gröbner et la représentation univariée rationnelle. Cette méthode est trop lente pour la poursuite de trajet. Le 2e objectif est la mise en œuvre d'une méthode itérative numérique (Newton) rapide et certifiée en s'appuyant sur le théorème de Kantorovich et l'arithmétique par intervalle. Le 3e objectif est la faisabilité d'une tache d'usinage. Un simulateur de trajectoire inclut des calculs de précision de l'outil en fonction de la vitesse d'avance. On détermine ainsi l'impact d'une architecture donnée, d'une configuration donnée, des capteurs choisis et de la stratégie de commande. On termine avec une méthode de certification de trajectoire en vérifiant si l'outil peut suivre une trajectoire dans une zone autour de la trajectoire nominale. Un théorème de convergence certifie que l'on peut résoudre le modèle géométrique direct en tout point du tube
Parallel robots have been introduced in flight simulators because of their high dynamics. Research is now focused on their application as machine tools. The requirements on accuracy are more stringent. The first objective is to find a resolution method to kinematics problems. Only a few implementations have succeeded to solve the general case (Gough platform). We have cataloged 8 algebraic formulations for the geometric model. The selected exact method is based the computation of Gröbner bases and the Rational Univariate Representation. The method is too slow for trajectory pursuit. The 2nd objective is the realization of a certified numeric iterative method (Newton) based on the Kantorovich theorem and interval arithmetic. The 3rd objective is milling task feasibility. A trajectory simulator includes tool accuracy estimations with given federate. One can determine the impact of a given architecture, selected sensors and the controller. This thesis terminates by a trajectory certification method, verifying if the tool can follow a trajectory included in a zone around the nominal trajectory. A convergence theorem is applied to insure that the forward kinematics model can be solved everywhere in the tube
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Roch, Jean-Louis. "Calcul formel et parallélisme : l'architecture du système PAC et son arithmétique rationnelle". Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00334457.

Testo completo
Abstract (sommario):
Pac est un système de calcul formel dédié a une machine Mind massivement parallèle. Dans une première partie, l'architecture du système est décrite. Elle est illustrée par une modélisation théorique et pratique de la parallélisation du produit de deux polynômes. Le système Pac est implante sur la machine t40 de Fps (32 processeurs). Dans une deuxième partie, l'arithmétique nodale en précision infinie sur les rationnels est étudiée. Différents algorithmes sont dégagés, notamment pour la multiplication, la division et le pgcd d'entiers de taille quelconque. Une vectorisation de l'arithmétique de base est discutée et expérimentée
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Magaud, Nicolas. "Changements de Représentation des Données dans le Calcul des Constructions". Phd thesis, Université de Nice Sophia-Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-00005903.

Testo completo
Abstract (sommario):
Nous étudions comment faciliter la réutilisation des
preuves formelles en théorie des types. Nous traitons cette question
lors de l'étude
de la correction du programme de calcul de la racine carrée de GMP.
A partir d'une description formelle, nous construisons
un programme impératif avec l'outil Correctness. Cette description
prend en compte tous les détails de l'implantation, y compris
l'arithmétique de pointeurs utilisée et la gestion de la mémoire.
Nous étudions aussi comment réutiliser des preuves formelles lorsque
l'on change la représentation concrète des données.
Nous proposons un outil qui permet d'abstraire
les propriétés calculatoires associées à un type inductif dans
les termes de preuve.
Nous proposons également des outils pour simuler ces propriétés
dans un type isomorphe. Nous pouvons ainsi passer, systématiquement,
d'une représentation des données à une autre dans un développement
formel.
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Bosser, Pierre. "Développement et validation d'une méthode de calcul GPS intégrant des mesures de profils de vapeur d'eau en visée multi-angulaire pour l'altimétrie de haute précision". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00322404.

Testo completo
Abstract (sommario):
Le GPS est la technique de positionnement global la plus utilisée ; sa précision planimétrique en mode géodésique atteint le niveau millimétrique. Cependant, une limite importante réside dans la détermination de la composante verticale (3-15~mm pour des sessions de 24~h) dont l'estimation est dégradée par la perturbation de la propagation des signaux lors de la traversée de la troposphère.
L'action NIGPS, menée en collaboration par l'IGN et le SA (CNRS), vise à développer une correction de ces effets atmosphériques basée sur le sondage de l'humidité à l'aide d'un lidar Raman vapeur d'eau à visée multi-angulaire. Ce travail de thèse s'inscrit dans la continuité des travaux présentés en 2005 par Jérôme Tarniewicz et consiste à poursuivre l'étude méthodologique, les développements instrumentaux et la validation expérimentale de l'analyse conjointe des observations GPS et lidar.
Après l'étude à partir de simulations numériques de l'effet de la troposphère sur le GPS et de sa correction, nous nous intéressons à la restitution précise de mesures de vapeur d'eau par lidar Raman. Les données acquises lors de la campagne VAPIC permettent de vérifier l'impact de la troposphère sur le GPS. La comparaison des observations lidar à celles issues d'autres instruments permet de valider la mesure lidar et souligne la capacité de cette technique à restituer des variations rapides de vapeur d'eau. Une première évaluation de la correction des observations GPS par des mesures lidar au zénith est réalisée sur des sessions GPS de 6 h et montre l'apport de cette technique sur les cas considérés. Ces résultats devraient cependant être améliorés grâce la prise en compte de visées lidar obliques.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Daumas, Marc. "Contributions à l'arithmétique des ordinateurs : vers une maîtrise de la précision". Phd thesis, Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0012.

Testo completo
Abstract (sommario):
Depuis l'apparition des premiers ordinateurs, l'arithmetique flottante a enormement evolue. La norme ieee 754 a permis de fixer les caracteristiques de l'arithmetique des ordinateurs modernes, mais les scientifiques perdent de plus en plus vite le controle de la validite de leurs calculs. Malgre l'enorme travail associe a la definition des operations, la validation des calculs ne peut toujours pas etre assuree de facon certaine par l'arithmetique implantee sur les ordinateurs. Je presente dans la premiere partie de cette etude deux prolongements qui visent a augmenter la marge de validite des operations: un nouveau mode d'arrondi pour les fonctions trigonometriques et un codage efficace des intervalles accessible facilement a l'utilisateur. L'arithmetique en-ligne permet de gerer efficacement les problemes de precision, mais les operateurs elementaires utilises sont peu adaptes aux architectures modernes de 32 ou 64 bits. L'implantation efficace d'un operateur en-ligne ne peut que passer par la description d'un circuit de bas niveau. Les prediffuses actifs, terme francais utilise pour field programmable gate array, sont des composants speciaux programmables au niveau des portes logiques. Ils permettent d'abaisser les couts de production en evitant de fabriquer un prototype. Nous avons implante grace a ces technologies les operateurs simples de calcul en-ligne: addition, normalisation, etc le noyau arithmetique de calcul en-ligne (nacel) decrit dans ce memoire permet d'implanter les operations arithmetiques usuelles telles que la multiplication, la division, l'extraction de racine carree et les fonctions elementaires trigonometriques et hyperboliques par une approximation polynomiale. Les architectures a flots de donnees sont insensibles aux difficultes sur lesquelles butent les concepteurs des ordinateurs modernes: temps d'acces a la memoire, latence de communication, occupation partielle du pipeline d'instructions. Je decris dans ce document une petite unite de calcul en-ligne (puce). Par une gestion adaptee des etiquettes inspiree pour le controle des donnees de celle utilisee par la manchester data flow machine. Puce reproduit le comportement complet d'une machine a flot de donnees. Elle comprend de plus les operations en-ligne de calcul scientifique. Nous presentons les resultats de simulations sur des calculs divers pour une ou plusieurs unites fonctionnelles
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Boucard, Stéphane. "Calcul de haute précision d'énergies de transitions dans les atomes exotiques et les lithiumoïdes : corrections relativistes, corrections radiatives, structure hyperfine et interaction avec le cortège électronique résiduel". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1998. http://tel.archives-ouvertes.fr/tel-00007148.

Testo completo
Abstract (sommario):
Dans ce mémoire, nous présentons des calculs d'énergie de transition
dans les ions lithiumoïdes et les atomes exotiques : 1) Les nouvelles
sources rendent possible la fabrication d'ions lourds fortement
chargés. Nous nous sommes intéressés à l'étude de la structure
hyperfine des ions lithiumoïdes. Cela nous permet d'examiner les
problèmes relativistes à plusieurs corps et la partie magnétique des
corrections d'Electrodynamique Quantique (QED). Dans les ions lourds,
ces dernières sont de l'ordre de quelques pour-cents par rapport à
l'énergie totale de la transition hyperfine. Nous avons également
évalué l'effet de Bohr-Weisskopf lié à la distribution du moment
magnétique dans le noyau. Nous avons calculé puis comparé ces
différentes contributions en incluant les corrections radiatives
(polarisation du vide et self-énergie) ainsi que l'influence du
continuum négatif. 2) Un atome exotique est un atome dans lequel un
électron du cortège est remplacé par une particule de même charge :
$\mu^(-)$, $\pi^(-)$, $\bar(p)$\ldots Des expériences récentes ont
permis de gagner trois ordres de grandeur en précision et en
résolution. Nous avons voulu améliorer la précision des calculs
d'énergies de transitions nécessaires à la calibration et à
l'interprétation dans deux cas : la mesure de paramètres de
l'interaction forte dans l'hydrogène anti-protonique ($\bar(p)$H) et
la détermination de la masse du pion grâce à l'azote pionique
($\pi$N). Nos calculs prennent en compte la structure hyperfine et le
volume de la distribution de charge de la particule. Nous avons
amélioré le calcul de la polarisation du vide qui ne peut plus être
traitée au premier ordre de la théorie des perturbations dans le cas
des atomes exotiques. Pour les atomes anti-protoniques, nous avons
également ajouté la correction du g-2. Elle provient du caractère
composite de l'anti-proton qui de ce fait possède un rapport
gyromagnétique g $\approx$ -5.5856 .
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Allart, Emilie. "Abstractions de différences exactes de réseaux de réactions : améliorer la précision de prédiction de changements de systèmes biologiques". Thesis, Lille, 2021. http://www.theses.fr/2021LILUI013.

Testo completo
Abstract (sommario):
Des prédictions de changements pour des réseaux de réactions avec information cinétique partielle peuvent être obtenues par raisonnement qualitatif avec l'interprétation abstraite. Un problème de prédiction classique en biologie systémique est de savoir quels knock-outs de gènes peuvent, ou doivent, augmenter le flux de sortie d'une espèce ciblée à l'état stationnaire. Répondre à une telle question pour un réseau de réactions donné demande de raisonner avec des différences abstraites telles que "augmenter'' et "diminuer''. Une tâche fondamentale pour des prédictions de changements a été présenté par Niehren, Versari, John, Coutte, et Jacques (2016). Il s'agit du problème de calcul de l'abstraction de différences d'un ensemble de solutions positives d'un système d'équations linéaires avec des contraintes de différences non linéaires.Précédemment, des algorithmes de surapproximation pour cette tâche ont été proposé en utilisant différentes heuristiques, par exemple basées sur la réécriture des équations linéaires. Dans cette thèse, nous présentons les premiers algorithmes exacts pouvant résoudre cette tâche pour les deux abstractions de différences utilisées dans la littérature.En guise de première contribution, nous montrons pour un système d'équations linéaires, comment caractériser l'abstraction booléenne de l'ensemble de ces solutions positives. Cette abstraction associe 1 à n'importe quel réel strictement positif, et 0 à 0. La caractérisation est donnée par l'ensemble des solutions booléennes d'un autre système d'équations, qui est obtenu à partir des modes élémentaires. Les solutions booléennes de ce système caractéristique peuvent être calculées en pratique à l'aide de la programmation par contraintes sur les domaines finis. Nous pensons que ce résultat est intéressant pour l'analyse de programmes fonctionnels avec arithmétiques linéaires.Comme seconde contribution, nous présentons deux algorithmes qui calculent, pour un système d'équations linéaires et de contraintes à différences non linéaires donné, l'abstraction de différences en Delta_3 et respectivement en Delta_6.Ces algorithmes s'appuient sur la caractérisation des abstractions booléennes pour les systèmes d'équations linéaires issue de la première contribution. Le lien entre ces abstractions est défini en logique du premier-ordre, tel que l'abstraction peut être calculée par la programmation par contraintes sur les domaines finis également.Nous avons implémenté nos algorithmes exacts et les avons appliqués à la prédiction de knock-outs de gènes qui peuvent mener à une surproduction de leucine dans B.~Subtilis, nécessaire pour la surproduction de surfactine en biotechnologie.Le calcul des prédictions précises avec l'algorithme exact peut tout de même prendre plusieurs heures. Pour cela, nous présentons aussi une nouvelle heuristique, basée sur les modes élémentaires, pour le calcul de l'abstraction de différences. Celle-ci fournit un bon compromis entre précision et efficacité en temps
Change predictions for reaction networks with partial kinetic information can be obtained by qualitative reasoning with abstract interpretation. A typical change prediction problem in systems biology is which gene knockouts may, or must, increase the outflow of a target species at a steady state. Answering such questions for reaction networks requires reasoning about abstract differences such as "increases'' and "decreases''. A task fundamental for change predictions was introduced by Niehren, Versari, John, Coutte, et Jacques (2016). It is the problem to compute for a given system of linear equations with nonlinear difference constraints, the difference abstraction of the set of its positive solutions. Previous approaches provided overapproximation algorithms for this task based on various heuristics, for instance by rewriting the linear equations. In this thesis, we present the first algorithms that can solve this task exactly for the two difference abstractions used in the literature so far. As a first contribution, we show how to characterize for a linear equation system the boolean abstraction of its set of positive solutions. This abstraction maps any strictly positive real numbers to 1 and 0 to 0. The characterization is given by the set of boolean solutions for another equation system, that we compute based on elementary modes. The boolean solutions of the characterizing equation system can then be computed based on finite domain constraint programming in practice. We believe that this result is relevant for the analysis of functional programs with linear arithmetics. As a second contribution, we present two algorithms that compute for a given system of linear equations and nonlinear difference constraints, the exact difference abstraction into Delta_3 and Delta_6 respectively. These algorithms rely on the characterization of boolean abstractions for linear equation systems from the first contribution. The bridge between these abstractions is defined in first-order logic. In this way, the difference abstraction can be computed by finite set constraint programming too. We implemented our exact algorithms and applied them to predicting gene knockouts that may lead to leucine overproduction in B.~Subtilis, as needed for surfactin overproduction in biotechnology. Computing the precise predictions with the exact algorithm may take several hours though. Therefore, we also present a new heuristics for computing difference abstraction based on elementary modes, that provides a good compromise between precision and time efficiency
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Salhi, Yamina. "Étude et réalisation de logiciels d'optimisation non contrainte avec dérivation numérique et estimation de la précision des résultats". Paris 6, 1985. http://www.theses.fr/1985PA066412.

Testo completo
Abstract (sommario):
L'étude de ces logiciels est la suivante: sureté et rapidité de convergence, approximation de la matrice hersienne, contrôle de la propagation des erreurs d'arrondi et vectorisation sur cray-1 du code développé.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Rappaport, Ari. "Estimations d'erreurs a posteriori et adaptivité en approximation numérique des EDPs : régularisation, linéarisation, discrétisation et précision en virgule flottante". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS057.

Testo completo
Abstract (sommario):
Cette thèse se concentre principalement sur l'analyse d'erreur a posteriori et les algorithmes adaptatifs qui en découlent pour résoudre itérativement des équations aux dérivées partielles (EDP) non linéaires. Nous considérons des EDP de type elliptique et parabolique dégénéré. Nous étudions également l'adaptivité dans la précision en virgule flottante d'un solveur multigrille. Dans les deux premiers chapitres, nous considérons des EDP elliptiques découlant d'un problème de minimisation d'énergie. L'analyse a posteriori est directement basée sur la différence d'énergie entre la solution vraie et approchée. Les applications non linéaires des EDP elliptiques que nous considérons sont en particulier fortement montones et Lipschitziennes. Dans ce contexte, une quantité importante est la « force de la non-linéarité » donnée par le rapport L/α où L est la constante de Lipschitz et α est la constante de (forte) montonicité. Dans le Chapitre 1, nous étudions un algorithme adaptatif comprenant la régularisation, la discrétisation et la linéarisation adaptative. L'algorithme est appliqué à une EDP elliptique avec une non-linéarité non régulière. Nous établissions une borne supérieure garantie, fondée sur un estimateur basé sur l'écart primal-dual. De plus, nous isolons les composantes de l'erreur correspondant à la régularisation, la discrétisation et la linéarisation qui conduisent à des critères d'arrêt adaptatifs. Nous prouvons que les estimateurs des composantes convergent vers zéro dans les limites respectives de régularisation, discrétisation et linéarisation de l'algorithme. Nous présentons des résultats numériques démontrant l'efficacité de l'algorithme. Nous présentons également des preuves numériques de robustesse par rapport au ratio mentionné L/α qui motive le travail dans le deuxième chapitre. Dans le Chapitre 2, nous examinons la question de l'efficacité et de la robustesse de l'estimateur d'erreur de l'écart primal-dual. Nous considérons en particulier une différence d'énergie augmentée, pour laquelle nous établissons une indépendance vis-à-vis de ce ratio pour la linéarisation de Zarantonello et seulement une dépendance locale et calculable par patch pour d'autres méthodes de linéarisation, y compris la linéarisation de Newton. Des résultats numériques sont présentés pour étayer les développements théoriques. Dans le Chapitre 3, nous nous tournons vers le problème de régularisation adaptative pour l'équation de Richards. L'équation de Richards apparaît dans le contexte de la modélisation des milieux poreux. Elle contient des non-linéarités non-régulières, et se prêtant à la même approche que celle adoptée dans le Chapitre 1. Nous développons des estimateurs, ici inspirés des estimateurs en norme duale du résidu, ainsi qu'un algorithme adaptatif basé sur ces estimateurs. Dans le Chapitre 4, nous fournissons des détails sur la mise en œuvre efficace du flux équilibré : un ingrédient crucial dans le calcul des estimateurs d'erreur. La mise en œuvre s'appuie sur le paradigme du multi-threading dans le langage de programmation Julia. Une boucle supplémentaire est introduite pour éviter les allocations de mémoire, essentielle pour obtenir un passage à l'échelle parallèle. Dans le Chapitre 5, nous considérons un algorithme de précision mixte avec une méthode de multigrille géométrique comme solveur interne. Le solveur multigrille fournit intrinsèquement un estimateur d'erreur que nous utilisons dans le critère d'arrêt pour le raffinement itératif. Nous présentons un benchmark pour démontrer l'accélération obtenue en utilisant des représentations en simple précision des matrices creuses impliquées. Nous concevons également un algorithme adaptatif qui utilise l'estimateur mentionné pour identifier quand le raffinement itératif échoue pour des problèmes trop mal conditionnés, l'algorithme est alors capable de récupérer et de résoudre le problème entièrement en double précision
This thesis concerns a posteriori error analysis and adaptive algorithms to approximately solve nonlinear partial differential equations (PDEs). We consider PDEs of both elliptic and degenerate parabolic type. We also study adaptivity in floating point precision of a multigrid solver of systems of linear algebraic equations. In the first two chapters, we consider elliptic PDEs arising from an energy minimization problem. The a posteriori analysis therein is based directly on the difference of the energy in the true and approximate solution. The nonlinear operators of the elliptic PDEs we consider are strongly monotone and Lipschitz continuous. In this context, an important quantity is the “strength of the nonlinearity” given by the ratio L/α where L is the Lipschitz continuity constant and α is the (strong) monotonicity constant. In Chapter 1 we study an adaptive algorithm comprising adaptive regularization, discretization, and linearization. The algorithm is applied to an elliptic PDE with a nonsmooth nonlinearity. We derive a guaranteed upper bound based on primal-dual gap based estimator. Moreover, we isolate components of the error corresponding to regularization, discretization, and linearization that lead to adaptive stopping criteria. We prove that the component estimators converge to zero in the respective limits of regularization, discretization, and linearization steps of the algorithm. We present numerical results demonstrating the effectiveness of the algorithm. We also present numerical evidence of robustness with respect to the aforementioned ratio L/α which motivates the work in the second chapter. In Chapter 2, we consider the question of efficiency and robustness of the primal-dual gap error estimator. We in particular consider an augmented energy difference, for which we establish independence of the ratio L/α (robustness) for the Zarantonello linearization and only patch-local and computable dependence for other linearization methods including the Newton linearization. Numerical results are presented to substantiate the theoretical developments. In Chapter 3 we turn our attention to the problem of adaptive regularization for the Richards equation. The Richards equation appears in the context of porous media modeling. It contains nonsmooth nonlinearities, which are amenable to the same approach we adopt in Chapter 1. We develop estimators and an adaptive algorithm where the estimators are inspired by estimators based on the dual norm of the residual. We test our algorithm on a series of numerical examples coming from the literature. In Chapter 4 we provide details for an efficient implementation of the equilibrated flux, a crucial ingredient in computing the error estimators so far discussed. The implementation relies on the multi-threading paradigm in the Julia programming language. An additional loop is introduced to avoid memory allocations, which is crucial to obtain parallel scaling. In Chapter 5 we consider a mixed precision iterative refinement algorithm with a geometric multigrid method as the inner solver. The multigrid solver inherently provides an error estimator of the algebraic error which we use in the stopping criterion for the iterative refinement. We present a benchmark to demonstrate the speedup obtained by using single precision representations of the sparse matrices involved. We also design an adaptive algorithm that uses the aforementioned estimator to identify when iterative refinement in single precision fails and is able to recover and solve the problem fully in double precision
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Laizet, Sylvain. "Développement d'un code de calcul combinant des schémas de haute précision avec une méthode de frontières immergées pour la simulation des mouvements tourbillonnaires en aval d'un bord de fuite". Poitiers, 2005. http://www.theses.fr/2005POIT2339.

Testo completo
Abstract (sommario):
La réalisation de simulations des mouvements tourbillonnaires en aval d'un bord de fuite reste une tâche difficile en mécanique des fluides. Des développements numériques ont été réalisés à partir d'un code de calcul résolvant les équations de Navier-Stokes incompressibles à l'aide de schémas aux différences finies de haute précision. L'originalité de l'approche numérique réside dans l'utilisation d'une méthode spectrale pour la résolution de l'équation de Poisson qui combinée à une méthode de frontières immergées permet de simuler des écoulements en présence de parois. Un effort particulier a été fait pour l'amélioration de la résolution de l'équation de Poisson afin d'utiliser un maillage inhomogène et une grille décalée pour le champ de pression. Deux écoulements de couche de mélange avec la prise en compte des parois ont été simulés avec un bord de fuite épais puis mince dans le but de déterminer l'influence de la géométrie de la plaque séparatrice sur la dynamique de l'écoulement
To carry out simulations of the vortex dynamics behind a trailing edge remains a difficult task in fluid mechanics. Numerical development has been performed with a computer code which solves the incompressible Navier-Stokes equations with high order compact finite difference schemes on a Cartesian grid. The specificity of this code is that the Poisson equation is solved in the spectral space with the modified spectral formalism. This code can be combined with an immersed boundary method in order to simulate flows with complex geometry. A particular work was made to improve the resolution of the Poisson equation in order to use a stretched mesh and a staggered grid for the pressure. Two mixing layers flows with a blunt and a bevelled trailing edge were performed in order to determinate the influence of the separating plate's shape on the vortex dynamics
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Tan, Pauline. "Précision de modèle et efficacité algorithmique : exemples du traitement de l'occultation en stéréovision binoculaire et de l'accélération de deux algorithmes en optimisation convexe". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX092/document.

Testo completo
Abstract (sommario):
Le présent manuscrit est composé de deux parties relativement indépendantes.La première partie est consacrée au problème de la stéréovision binoculaire, et plus particulièrement au traitement de l'occultation. En partant d'une analyse de ce phénomène, nous en déduisons un modèle de régularité qui inclut une contrainte convexe de visibilité. La fonctionnelle d'énergie qui en résulte est minimisée par relaxation convexe. Les zones occultées sont alors détectées grâce à la pente horizontale de la carte de disparité avant d'être densifiées.Une autre méthode gérant l'occultation est la méthode des graph cuts proposée par Kolmogorov et Zabih. L'efficacité de cette méthode justifie son adaptation à deux problèmes auxiliaires rencontrés en stéréovision, qui sont la densification de cartes éparses et le raffinement subpixellique de cartes pixelliques.La seconde partie de ce manuscrit traite de manière plus générale de deux algorithmes d'optimisation convexe, pour lequels deux variantes accélérées sont proposées. Le premier est la méthode des directions alternées (ADMM). On montre qu'un léger relâchement de contraintes dans les paramètres de cette méthode permet d'obtenir un taux de convergence théorique plus intéressant.Le second est un algorithme de descentes proximales alternées, qui permet de paralléliser la résolution approchée du problème Rudin-Osher-Fatemi (ROF) de débruitage pur dans le cas des images couleurs. Une accélération de type FISTA est également proposée
This thesis is splitted into two relatively independant parts. The first part is devoted to the binocular stereovision problem, specifically to the occlusion handling. An analysis of this phenomena leads to a regularity model which includes a convex visibility constraint. The resulting energy functional is minimized by convex relaxation. The occluded areas are then detected thanks to the horizontal slope of the disparity map and densified. Another method with occlusion handling was proposed by Kolmogorov and Zabih. Because of its efficiency, we adapted it to two auxiliary problems encountered in stereovision, namely the densification of sparse disparity maps and the subpixel refinement of pixel-accurate maps.The second part of this thesis studies two convex optimization algorithms, for which an acceleration is proposed. The first one is the Alternating Direction Method of Multipliers (ADMM). A slight relaxation in the parameter choice is shown to enhance the convergence rate. The second one is an alternating proximal descent algorithm, which allows a parallel approximate resolution of the Rudin-Osher-Fatemi (ROF) pure denoising model, in color-image case. A FISTA-like acceleration is also proposed
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Barotto, Béatrice. "Introduction de paramètres stochastiques pour améliorer l'estimation des trajectoires d'un système dynamique par une méthode de moindres carrés : application à la détermination de l'orbite d'un satellite avec une précision centimétrique". Toulouse 3, 1995. http://www.theses.fr/1995TOU30196.

Testo completo
Abstract (sommario):
En presence d'imperfections du modele dynamique, les methodes d'estimation des trajectoires du systeme dynamique, par resolution d'un probleme de moindres carres non lineaire de grande taille, ne permettent pas de profiter de l'extreme precision des mesures faites sur l'etat du systeme. Afin d'estimer plus finement la trajectoire du systeme dynamique, le traitement des erreurs de modeles dans l'algorithme de filtrage-lissage doit etre envisage. Ces erreurs sont prises en compte sous la forme de processus colores dans les equations d'evolution de la dynamique et dans les equations de mesure. Certains parametres des modeles dynamique et de mesure sont alors supposes stochastiques. Afin de resoudre cette classe de probleme de moindres carres non lineaire, une methode de filtrage-lissage a du etre developpee. Elle correspond a une approche de gauss-newton appliquee a un probleme de moindres carres non lineaire qui est linearise au voisinage d'une bonne estimation de la trajectoire du systeme dynamique. Cette methode est developpee dans une formulation racine carree de givens afin d'eviter des problemes d'ordre numerique et inclut le traitement des parametres stochastiques. Cette methode peut s'appliquer a des problemes d'origines diverses. Elle a ete appliquee a la determination de l'orbite du satellite franco-americain d'oceanographie topex/poseidon lance en 1992. En 1995, les methodes classiques permettent d'obtenir une precision de l'ordre de trois centimetres dans la direction radiale a partir des mesures doris et laser. La nouvelle methode permet d'obtenir des orbites de meilleure precision en introduisant une acceleration empirique stochastique agissant sur le satellite. Cette methode a aussi l'avantage d'etre independante de l'altitude du satellite et de traiter n'importe quel type de mesures
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Peou, Kenny. "Computing Tools for HPDA : a Cache-Oblivious and SIMD Approach". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG105.

Testo completo
Abstract (sommario):
Ce travail présente trois contributions aux domaines de la vectorisation des CPU et de l'apprentissage automatique. La première contribution est un algorithme pour calculer une moyenne avec des valeurs en virgule flottante de demi-précision. Dans ce travail réalisé avec un support matériel de demi-précision limité, nous utilisons une bibliothèque logicielle existante pour émuler le calcul de demi-précision. Cela nous permet de comparer la précision numérique de notre algorithme à celle de divers algorithmes couramment utilisés. Enfin, nous effectuons des tests de performance d'exécution en utilisant des valeurs à virgule flottante simples et doubles afin d'anticiper les gains potentiels de l'application de la vectorisation du CPU aux valeurs de demi-précision. Dans l'ensemble, nous constatons que notre algorithme présente des performances numériques légèrement inférieures dans le meilleur des cas en échange de performances numériques nettement supérieures dans le pire des cas, tout en offrant des performances d'exécution similaires à celles d'autres algorithmes. La deuxième contribution est une bibliothèque de calcul en virgule fixe conçue spécifiquement pour la vectorisation du CPU. Les bibliothèques existantes ne reposent pas sur l'auto-vectorisation du compilateur, qui ne parvient pas à vectoriser les opérations arithmétiques de multiplication et de division. De plus, ces deux opérations nécessitent des opérations de cast qui réduisent la vectorisabilité et ont un réel coût de calcul. Pour remédier à ce problème, nous présentons un format de stockage de données en virgule fixe qui ne nécessite aucune opération de cast pour effectuer des opérations arithmétiques. De plus, nous présentons un certain nombre de benchmarks comparant notre implémentation aux bibliothèques existantes et nous présentons la vitesse de vectorisation du CPU sur un certain nombre d'architectures. Dans l'ensemble, nous constatons que notre format en virgule fixe permet des performances d'exécution égales ou supérieures à toutes les bibliothèques comparées. La dernière contribution est un moteur d'inférence de réseau neuronal conçu pour réaliser des expériences en variant les types de données numériques utilisées dans le calcul d'inférence. Ce moteur d'inférence permet un contrôle spécifique à la couche des types de données utilisés pour effectuer l'inférence. Nous utilisons ce niveau de contrôle pour réaliser des expériences visant à déterminer l'agressivité avec laquelle il est possible de réduire la précision numérique utilisée dans l'inférence du réseau neuronal PVANet. Au final, nous déterminons qu'une combinaison des types de données standardisés float16 et bfoat16 est suffisante pour l'ensemble de l'inférence
This work presents three contributions to the fields of CPU vectorization and machine learning. The first contribution is an algorithm for computing an average with half precision floating point values. In this work performed with limited half precision hardware support, we use an existing software library to emulate half precision computation. This allows us to compare the numerical precision of our algorithm to various commonly used algorithms. Finally, we perform runtime performance benchmarks using single and double floating point values in order to anticipate the potential gains from applying CPU vectorization to half precision values. Overall, we find that our algorithm has slightly worse best-case numerical performance in exchange for significantly better worst-case numerical performance, all while providing similar runtime performance to other algorithms. The second contribution is a fixed-point computational library designed specifically for CPU vectorization. Existing libraries fail rely on compiler auto-vectorization, which fail to vectorize arithmetic multiplication and division operations. In addition, these two operations require cast operations which reduce vectorizability and have a real computational cost. To allevieate this, we present a fixed-point data storage format that does not require any cast operations to perform arithmetic operations. In addition, we present a number of benchmarks comparing our implementation to existing libraries and present the CPU vectorization speedup on a number of architectures. Overall, we find that our fixed point format allows runtime performance equal to or better than all compared libraries. The final contribution is a neural network inference engine designed to perform experiments varying the numerical datatypes used in the inference computation. This inference engine allows layer-specific control of which data types are used to perform inference. We use this level of control to perform experiments to determine how aggressively it is possible to reduce the numerical precision used in inferring the PVANet neural network. In the end, we determine that a combination of the standardized float16 and bfloat16 data types is sufficient for the entire inference
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Fontbonne, Cathy. "Acquisition multiparamétrique de signaux de décroissance radioactive pour la correction des défauts instrumentaux : application à la mesure de la durée de vie du 19Ne". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC204/document.

Testo completo
Abstract (sommario):
L’objectif de cette thèse est de proposer une méthode de mesure précise d’une période radioactive de l’ordre de quelques secondes. L’acquisition numérique temps réel FASTER permet d’accéder aux caractéristiques physiques du signal induit par la détection de chaque désintégration lors de la décroissance radioactive. La sélection des données de comptage peut se faire par une analyse optimisée post-expérience. Ainsi, après avoir établi les facteurs d’influence de la mesure (variation d’empilements, de gain des tubes photomultiplicateurs, de la ligne de base électronique), il est possible, a posteriori, de calculer leur impact sur l’estimation de la période radioactive, et de choisir un seuil en énergie déposée, ainsi qu’un temps mort qui minimisent leurs influences. Cette thèse propose, par ailleurs, une méthode pour mesurer, puis compenser les variations de ses grandeurs. Cette méthode a été appliquée pour l’estimation de la période radioactive du 19Ne avec une incertitude relative de 1,2.10-4 : T1/2=17,2569(21) s
The aim of this thesis is to propose a method for precise half-life measurements adapted to nuclides with half-lives of a few seconds. The FASTER real-time digital acquisition system gives access to the physical characteristics of the signal induced by the detection of each decay during the counting period following beam implantation. The selection of the counting data can be carried out by an optimized post-experimental offline analysis. Thus, after establishing the influence factors impacting the measurement (pile up, gain and base line fluctuations), we are able to estimate, a posteriori, their impact on the half-life estimation. This way, we can choose the deposited energy threshold and dead time in order to minimize their effect. This thesis also proposes a method for measuring and then compensating for influence factors variations. This method was applied to estimate the 19Ne half-life with a relative uncertainty of 1.2 10-4 leading to T1 / 2 = 17.2569 (21) s. This is the most precise measurement to date for this isotope
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Beaudoin, Normand. "Méthode mathématique et numérique de haute précision pour le calcul des transformées de Fourier, intégrales, dérivées et polynômes splines de tout ordre ; Déconvolution par transformée de Fourier et spectroscopie photoacoustique à résolution temporelle". Thèse, Université du Québec à Trois-Rivières, 1999. http://depot-e.uqtr.ca/6708/1/000659516.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Lopes, Quintas Christian Louis. "Système ultra précis de distribution du temps dans le domaine de la picoseconde". Paris, CNAM, 2001. http://www.theses.fr/2001CNAM0387.

Testo completo
Abstract (sommario):
Afin de permettre le fonctionnement et l'instrumentation de grands dispositifs de physique (lasers de fusion thermonucleaire, accélerateurs de particules, télescopes à neutrions) un système de synchronisation qui permet a des équipements délocalisés et éloignés les uns des autres de plusieurs centaines de mètres de distribuer des impulsions synchrones entre elles avec une précision de 1 PS RMS PRES a été étudié et réalisé. L'analyse des dispositifs existants a montré que leurs performances étaient insuffisantes vis-a-vis des performances à atteindre. Il a donc été nécessaire d'étudier et de réaliser un système spécifique. Une pré-étude a débouché sur la définition d'une architecture basée sur la distribution d'un signal d'horloge d'un équipement maître vers des équipements esclaves à l'aide de fibres optiques. Il s'est avéré nécessaire de réaliser une liaison bidirectionnelle monofibre afin de mesurer les temps de transit entre maître et esclaves. Cette liaison bidirectionnelle a ensuite été améliorée afin que les temps de transit entre maître et esclaves puissent être mesures avec une précision de quelques picosecondes. Une compensation des différents temps de transit a ensuite été effectuée par les équipements esclaves qui intègrent un générateur de retard constitue de deux sections : un générateur de retard numérique et un générateur analogique. La combinaison des deux permet d'obtenir a la fois une grande dynamique (de 100 ns a 100s) et excellente résolution (0,4 PS). Différentes corrections sont appliquées pour, d'une part, compenser les non-linéarités du générateur de retard analogique et, d'autre part, garantir les performances du système sur une plage de température de 15\c / 35\c. La précision atteinte par le système
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Robeyns, Matthieu. "Mixed precision algorithms for low-rank matrix and tensor approximations". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG095.

Testo completo
Abstract (sommario):
La gestion des données est souvent réalisée par des objets mathématiques tels que les matrices et les tenseurs, qui sont la généralisation des matrices à plus de deux dimensions.Certains domaines d'application nécessitent de stocker trop d'éléments, créant des tenseurs trop grands ; ce problème est connu sous le nom de emph curse of dimensionality.Des méthodes mathématiques telles que les approximations de rang faible ont été développées pour réduire la dimensionnalité de ces objets malgré un coût très élevé en temps de calcul.De plus, de nouvelles architectures informatiques telles que les GPU nous permettent d'effectuer des calculs rapidement, notamment lors de calculs en faible précision.Combiner ces nouvelles architectures avec l'approximation de rang faible est une solution malgré la qualité des résultats altérée par la faible précision.Cette thèse vise à proposer des algorithmes d'approximation de rang faible stables en faible précision tout en conservant l'accélération inhérente au calcul en faible précision, ce qui est réalisable grâce au calcul en précision mixte.Nous avons développé une méthode générale d'approximation de tenseurs en précision mixte en calculant d'abord une approximation en faible précision et en l'affinant itérativement avec une précision supérieure pour maintenir la qualité du résultat.Sachant que cette accélération provient principalement des architectures GPU, plus précisément d'unités de calcul spécialisées appelées emph tensor cores, nous avons développé une méthode générale d'approximation matricielle pour les architectures GPU en précision mixte utilisant ces emph tensor cores.Notre méthode maintient la qualité du résultat, mais au prix d'une approximation de dimension supérieur à celle des applications standards.Pour compenser cet écart, des méthodes de recompression de dimension existent pour différents formats de tenseurs.Notre contribution finale propose une méthode de recompression englobant les différents formats de tenseurs et de matrices tout en prouvant analytiquement sa stabilité
Data management is often done by mathematical objects such as matrices and tensors, which are the generalization of matrices to more than two dimensions.Some application domains require too many elements to be stored, creating tensors too large; this problem is known as the emph curse of dimensionality.Mathematical methods such as low-rank approximations have been developed to reduce the dimensionality of these objects despite a very high cost in computation time.Moreover, new computer architectures such as GPUs allow us to perform computations quickly, especially when computing with low precision.Combining these new architectures with low-rank approximation is a solution despite the quality of the results being impaired by low precision.This thesis aims to propose low-rank approximation algorithms that are stable in low precision while maintaining the speedup inherent in low-precision computation, which is feasible thanks to mixed-precision computation.We have developed a general method for mixed-precision tensor approximation by first computing a low-precision approximation and iteratively refining it with higher precision to maintain the quality of the result.Knowing that this speedup comes mainly from GPU architectures, more precisely from specialized computing units called emph ensor cores, we have developed a general matrix approximation method for mixed-precision GPU architectures using these emph tensor cores.Our method maintains the quality of the result but at the expense of a higher-dimensional approximation than standard applications.To compensate for this gap, dimension recompression methods exist for different tensor formats.Our final contribution proposes a recompression method encompassing the different tensor and matrix formats while proving analytically its stability
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Chotin-Avot, Roselyne. "Architectures matérielles pour l'arithmétique stochastique discrète". Paris 6, 2003. http://hal.upmc.fr/tel-01267458.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Chohra, Chemseddine. "Towards reproducible, accurately rounded and efficient BLAS". Thesis, Perpignan, 2017. http://www.theses.fr/2017PERP0065.

Testo completo
Abstract (sommario):
Le problème de non-reproductibilté numérique surgit dans les calculs parallèles principalement à cause de la non-associativité de l’addition flottante. Les environnements parallèles changent dynamiquement l’ordre des opérations. Par conséquent, les résultats numériques peuvent changer d’une exécution à une autre. Nous garantissons la reproductibilité en étendant autantque possible l’arrondi correct à des séquences de calculs plus importantes que les opérations arithmétique exigées par le standard IEEE-754. Nous introduisons RARE-BLAS une implémentation des BLAS qui est reproductible et précise en utilisant les transformations sans erreur et les algorithmes de sommation appropriés. Nous présentons dans cette thèsedes solutions pour le premier (asum, dot and nrm2) et le deuxième (gemv and trsv) niveaux des BLAS. Nous développons une implémentation de ces solutions qui utilise les interfaces de programmation parallèles (OpenMP et MPI) et les jeu d’instructions vectorielles. Nous comparons l’efficacité de RARE-BLAS à une bibliothèque optimisé (Intel MKL) et à des solutionsreproductibles existantes
Numerical reproducibility failures rise in parallel computation because floating-point summation is non-associative. Massively parallel systems dynamically modify the order of floating-point operations. Hence, numerical results might change from one run to another. We propose to ensure reproducibility by extending as far as possible the IEEE-754 correct rounding property to larger computing sequences. We introduce RARE-BLAS a reproducible and accurate BLAS library that benefits from recent accurate and efficient summation algorithms. Solutions for level 1 (asum, dot and nrm2) and level 2 (gemv and trsv) routines are designed. Implementations relying on parallel programming API (OpenMP, MPI) and SIMD extensions areproposed. Their efficiency is studied compared to optimized library (Intel MKL) and other existing reproducible algorithms
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Mezzarobba, Marc. "Autour de l'évaluation numérique des fonctions D-finies". Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00663017.

Testo completo
Abstract (sommario):
Les fonctions D-finies (ou holonomes) à une variable sont les solutions d'équations différentielles linéaires à coefficients polynomiaux. En calcul formel, il s'est avéré fructueux depuis une vingtaine d'années d'en développer un traitement algorithmique unifié. Cette thèse s'inscrit dans cette optique, et s'intéresse à l'évaluation numérique des fonctions D-finies ainsi qu'à quelques problèmes apparentés. Elle explore trois grandes directions. La première concerne la majoration des coefficients des développements en série de fonctions D-finies. On aboutit à un algorithme de calcul automatique de majorants accompagné d'un résultat de finesse des bornes obtenues. Une seconde direction est la mise en pratique de l'algorithme " bit burst " de Chudnovsky et Chudnovsky pour le prolongement analytique numérique à précision arbitraire des fonctions D-finies. Son implémentation est l'occasion de diverses améliorations techniques. Ici comme pour le calcul de bornes, on s'attache par ailleurs à couvrir le cas des points singuliers réguliers des équations différentielles. Enfin, la dernière partie de la thèse développe une méthode pour calculer une approximation polynomiale de degré imposé d'une fonction D-finie sur un intervalle, via l'étude des développements en série de Tchebycheff de ces fonctions. Toutes les questions sont abordées avec un triple objectif de rigueur (résultats numériques garantis), de généralité (traiter toute la classe des fonctions D-finies) et d'efficacité. Pratiquement tous les algorithmes étudiés s'accompagnent d'implémentations disponibles publiquement.
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Bocco, Andrea. "A variable precision hardware acceleration for scientific computing". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI065.

Testo completo
Abstract (sommario):
La plupart des unités matérielles arithmétiques à virgule flottante (en anglais Floating-Point, FP) prennent en charge les formats et les opérations spécifiés dans le standard IEEE 754. Ces formats ont une longueur en bits fixe et sont définis sur 16, 32, 64 et 128 bits. Cependant, certaines applications, par exemple les solveurs de systèmes linéaires, ou encore la géométrie computationnelle, pourraient bénéficier de formats différents pour représenter les flottants sur différentes tailles, avec différents compromis entre les champs des exposant et mantisse. La classe des formats de précision variable (en anglais Variable Precision, VP) répond à ces exigences. L'objectif de cette recherche est de proposer un système de calcul VP capable d'augmenter la précision ou l'efficacité de calcul des problèmes en offrant une granularité plus fine des opérations FP. Ce travail propose un système de calcul FP à VP basé sur trois couches de calcul. La couche externe prend en charge les formats IEEE existants pour les variables d'entrée et de sortie. La couche interne utilise des registres de longueur variable pour les opérations de multiplication-addition à haute précision. Enfin, une couche intermédiaire prend en charge le chargement et le stockage des résultats intermédiaires dans la mémoire cache sans perte de précision, avec un format VP réglable dynamiquement. Le support des formats différents entre la représentation interne et le stockage en mémoire proche permets d'envisager des "grands vecteurs" en VP avec la possibilité d’avoir une haute précision de calcul dans la couche interne. L'unité à VP exploite le format FP UNUM de type I, en proposant des solutions pour remédier à certains de ses difficultés intrinsèques, telles que la latence variable de l'opération interne et l'empreinte mémoire variable des variables intermédiaires. Contrairement aux formats définis par IEEE 754, dans l'UNUM de type I, la taille d'un nombre est stockée dans la représentation elle-même. Ce travail propose une architecture de jeu d'instructions pour programmer le système de calcul VP qui suit la structure des couches de calcul susmentionnée. L'objectif de cette ISA est d'établir une séparation claire entre le format de la mémoire et celui à l'intérieur du coprocesseur. Avec cette ISA, le programmeur peut écrire des programmes VP de telle sorte que les instructions assembleur générées soient décorrélées de la taille et des formats des variables du programme. Cette décorrélation se fait en stockant les informations sur la taille, la précision et le format des variables du programme dans des registres d'état dédiés, à l'intérieur de l'unité VP. Ces registres d’état sont utilisés par une unité de chargement et de stockage (Load and Store Unit, LSU), étroitement couplée à l'unité de calcul VP, qui prend en charge la conversion des données entre les couches de calcul
Most of the Floating-Point (FP) hardware units support the formats and the operations specified in the IEEE 754 standard. These formats have fixed bit-length. They are defined on 16, 32, 64, and 128 bits. However, some applications, such as linear system solvers and computational geometry, benefit from different formats which can express FP numbers on different sizes and different tradeoffs among the exponent and the mantissa fields. The class of Variable Precision (VP) formats meets these requirements. This research proposes a VP FP computing system based on three computation layers. The external layer supports legacy IEEE formats for input and output variables. The internal layer uses variable-length internal registers for inner loop multiply-add. Finally, an intermediate layer supports loads and stores of intermediate results to cache memory without losing precision, with a dynamically adjustable VP format. The VP unit exploits the UNUM type I FP format and proposes solutions to address some of its pitfalls, such as the variable latency of the internal operation and the variable memory footprint of the intermediate variables. Unlike IEEE 754, in UNUM type I the size of a number is stored within its representation. The unit implements a fully pipelined architecture, and it supports up to 512 bits of precision, internally and in memory, for both interval and scalar computing. The user can configure the storage format and the internal computing precision at 8-bit and 64-bit granularity This system is integrated as a RISC-V coprocessor. The system has been prototyped on an FPGA (Field-Programmable Gate Array) platform and also synthesized for a 28nm FDSOI process technology. The respective working frequencies of FPGA and ASIC implementations are 50MHz and 600MHz. Synthesis results show that the estimated chip area is 1.5mm2, and the estimated power consumption is 95mW. The experiments emulated in an FPGA environment show that the latency and the computation accuracy of this system scale linearly with the memory format length set by the user. In cases where legacy IEEE-754 formats do not converge, this architecture can achieve up to 130 decimal digits of precision, increasing the chances of obtaining output data with an accuracy similar to that of the input data. This high accuracy opens the possibility to use direct methods, which are more sensitive to computational error, instead of iterative methods, which always converge. However, their latency is ten times higher than the direct ones. Compared to low precision FP formats, in iterative methods, the usage of high precision VP formats helps to drastically reduce the number of iterations required by the iterative algorithm to converge, reducing the application latency of up to 50%. Compared with the MPFR software library, the proposed unit achieves speedups between 3.5x and 18x, with comparable accuracy
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Marié, Simon. "Etude de la méthode Boltzmann sur Réseau pour les simulations en aéroacoustique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00311293.

Testo completo
Abstract (sommario):
Ce travail de thèse s'inscrit dans une problématique visant à étudier numériquement le bruit d'origine aérodynamique généré par les écoulements turbulents autour des véhicules en utilisant la méthode Boltzmann sur Réseau (LBM). Les objectifs de cette thèse sont l'étude des capacités aéroacoustiques de la LBM ainsi que l'élaboration d'un code de calcul tridimensionnel et parallèle.
Dans un premier temps, les élements historiques et théoriques de la LBM sont présentés ainsi que le développement permettant de passer de l'équation de Boltzmann aux équations de Navier-Stokes. La construction des modèles à vitesses discrètes est également décrite. Deux modèles basés sur des opérateurs de collision différents sont présentés : le modèle LBM-BGK et le modèle LBM-MRT. Pour l'étude des capacités aéroacoustiques de la LBM, une analyse de von Neumann est réalisée pour les modèles LBM-BGK et LBM-MRT ainsi que pour l'équation de Boltzmann à vitesse discrète (DVBE). Une comparaison avec les schémas Navier-Stokes d'ordre élevé est alors menée. Pour remédier aux instabilités numériques de la méthode Boltzmann sur Réseau intervenant lors de la propagation dans des directions particulières à M>0.1, des filtres sélectifs sont utilisés et leur effet sur la dissipation est étudié.
Dans un second temps, le code de calcul L-BEAM est présenté. La structure générale et les différentes techniques de calculs sont décrites. Un algorithme de transition de résolution est développé. La modélisation de la turbulence est abordée et le modèle de Meyers-Sagaut est implémenté dans le code. Enfin, des cas tests numériques sont utilisés pour valider le code et la simulation d'un écoulement turbulent complexe est réalisée.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Charles, Joseph. "Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes". Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00718571.

Testo completo
Abstract (sommario):
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Tisserand, Arnaud. "Étude et conception d'opérateurs arithmétiques". Habilitation à diriger des recherches, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00502465.

Testo completo
Abstract (sommario):
Ce travail présente quelques contributions en arithmétique des ordinateurs pour le matériel et le logiciel. L'arithmétique des ordinateurs est la branche de l'informatique qui traite des représentations des nombres, des algorithmes pour effectuer les calculs de base en machine, la validation de la qualité des calculs, l'analyse de l'efficacité des calculs et des outils d'aide à la conception de systèmes de calcul arithmétique. Nos travaux comportent des liens avec les domaines de la conception de circuits intégrés numériques, de l'architecture des machines et du développement logiciel de bibliothèques de calcul. Les principaux domaines d'application de nos travaux sont: le calcul numérique dans les systèmes embarqués, la cryptographie et la sécurité numérique, le traitement numérique du signal et des images et de façon plus limitée les dispositifs numériques de contrôle-commande en automatique. Le mémoire résume les travaux de recherche effectués, seul et en collaboration, depuis octobre 1997. Ces travaux portent sur: l'arithmétique en ligne, des architectures reconfigurables, des méthodes d'évaluation de fonctions à base de tables, la division pour circuits asynchrones, des opérateurs arithmétiques spécifiques pour FPGA, des variantes de la multiplication comme la multiplication par des constantes ou tronquée, des bibliothèques flottantes pour processeurs entiers, la division par des constantes, l'évaluation de fonctions par approximation polynomiale, des opérateurs arithmétiques pour la basse consommation d'énergie, la modélisation et l'évaluation de la consommation d'opérateurs arithmétiques, des opérateurs arithmétiques pour la cryptographie (corps finis et sécurisation contre des attaques physiques), la génération de diviseurs matériels, la bibliothèque logicielle PACE pour la cryptographie, la consommation d'énergie dans les processeurs graphiques, la maîtrise des erreurs d'arrondi dans les outils de CAO, la génération de nombres vraiment aléatoires et l'arithmétique par estimation.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Romera, Thomas. "Adéquation algorithme architecture pour flot optique sur GPU embarqué". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS450.

Testo completo
Abstract (sommario):
Cette thèse porte sur l'optimisation et l'implémentation efficace d'algorithmes d'estimation du mouvement des pixels (flot optique) sur des processeurs graphiques (GPU) embarqués. Deux algorithmes itératifs ont été étudiés : la méthode de Variation Totale - L1 (TV-L1) et la méthode de Horn-Schunck. L’objectif est d’obtenir un traitement temps réel (moins de 40 ms par images) sur des plateformes embarquées à faible consommation énergétique, tout en gardant une résolution image et une qualité d’estimation du flot acceptable pour les applications visées. Différents niveaux de stratégies d'optimisation ont été explorés. Des transformations algorithmiques de haut niveau, telles que la fusion d'opérateurs et le pipeline d'opérateurs, ont été mises en œuvre pour maximiser la réutilisation des données et améliorer la localité spatiale/temporelle. De plus, des optimisations bas niveau spécifiques aux GPU, notamment l'utilisation d'instructions et de nombres vectoriels, ainsi qu'une gestion efficace de l'accès à la mémoire, ont été intégrées. L'impact de la représentation des nombres en virgule flottante (simple précision par rapport à demi-précision) a également été étudié. Les implémentations ont été évaluées sur les plateformes embarquées Nvidia Jetson Xavier, TX2 et Nano en termes de temps d'exécution, de consommation énergétique et de précision du flot optique. Notamment, la méthode TV-L1 présente une complexité et une intensité de calcul plus élevées par rapport à Horn-Schunck. Les versions les plus rapides de ces algorithmes atteignent ainsi un temps de traitement de 0,21 nanosecondes par pixel par itération en demi-précision sur la plate-forme Xavier. Cela représente une réduction du temps d'exécution de 22x par rapport aux versions CPU efficaces et parallèles. De plus, la consommation d'énergie est réduite d'un facteur x5,3. Parmi les cartes testées, la plate-forme embarquée Xavier, à la fois la plus puissante et la plus récente, offre systématiquement les meilleurs résultats en termes de vitesse et d'efficacité énergétique. La fusion d'opérateurs et le pipelining se sont avérés essentiels pour améliorer les performances sur GPU en favorisant la réutilisation des données. Cette réutilisation des données est rendue possible grâce à la mémoire Shared des GPU, une petite mémoire d'accès rapide permettant le partage de données entre les threads du même bloc de threads GPU. Bien que la fusion de plusieurs itérations apporte des gains de performance, elle est limitée par la taille de la mémoire Shared, nécessitant des compromis entre l'utilisation des ressources et la vitesse. L'utilisation de nombres en demi-précision accélère les algorithmes itératifs et permet d'obtenir une meilleure précision du flot optique dans le même laps de temps par rapport aux versions en simple-précision. Les implémentations en demi-précision convergent plus rapidement en raison de l'augmentation du nombre d'itérations réalisables dans un délai donné. Plus précisément, l'utilisation de nombres en demi-précision sur la meilleure architecture GPU accélère l'exécution jusqu'à 2,2x pour TV-L1 et 3,7x pour Horn-Schunck. Ces travaux soulignent l'importance des optimisations spécifiques aux GPU pour les algorithmes de vision par ordinateur, ainsi que l'utilisation et l'étude des nombres à virgule flottante de précision réduite. Ils ouvrent la voie à des améliorations futures grâce à des différentes transformations algorithmiques, à des formats numériques différents et à des architectures matérielles nouvelles. Cette approche peut également être étendue à d'autres familles d'algorithmes itératifs
This thesis focus on the optimization and efficient implementation of pixel motion (optical flow) estimation algorithms on embedded graphics processing units (GPUs). Two iterative algorithms have been studied: the Total Variation - L1 (TV-L1) method and the Horn-Schunck method. The primary objective of this work is to achieve real-time processing, with a target frame processing time of less than 40 milliseconds, on low-power platforms, while maintaining acceptable image resolution and flow estimation quality for the intended applications. Various levels of optimization strategies have been explored. High-level algorithmic transformations, such as operator fusion and operator pipelining, have been implemented to maximize data reuse and enhance spatial/temporal locality. Additionally, GPU-specific low-level optimizations, including the utilization of vector instructions and numbers, as well as efficient memory access management, have been incorporated. The impact of floating-point number representation (single-precision versus half-precision) has also been investigated. The implementations have been assessed on Nvidia's Jetson Xavier, TX2, and Nano embedded platforms in terms of execution time, power consumption, and optical flow accuracy. Notably, the TV-L1 method exhibits higher complexity and computational intensity compared to Horn-Schunck. The fastest versions of these algorithms achieve a processing rate of 0.21 nanoseconds per pixel per iteration in half-precision on the Xavier platform, representing a 22x time reduction over efficient and parallel CPU versions. Furthermore, energy consumption is reduced by a factor of x5.3. Among the tested boards, the Xavier embedded platform, being both the most powerful and the most recent, consistently delivers the best results in terms of speed and energy efficiency. Operator merging and pipelining have proven to be instrumental in improving GPU performance by enhancing data reuse. This data reuse is made possible through GPU Shared memory, which is a small, high-speed memory that enables data sharing among threads within the same GPU thread block. While merging multiple iterations yields performance gains, it is constrained by the size of the Shared memory, necessitating trade-offs between resource utilization and speed. The adoption of half-precision numbers accelerates iterative algorithms and achieves superior optical flow accuracy within the same time frame compared to single-precision counterparts. Half-precision implementations converge more rapidly due to the increased number of iterations possible within a given time window. Specifically, the use of half-precision numbers on the best GPU architecture accelerates execution by up to x2.2 for TV-L1 and x3.7 for Horn-Schunck. This work underscores the significance of both GPU-specific optimizations for computer vision algorithms, along with the use and study of reduced floating point numbers. They pave the way for future enhancements through new algorithmic transformations, alternative numerical formats, and hardware architectures. This approach can potentially be extended to other families of iterative algorithms
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Durochat, Clément. "Méthode de type Galerkin discontinu en maillages multi-éléments (et non-conformes) pour la résolution numérique des équations de Maxwell instationnaires". Thesis, Nice, 2013. http://www.theses.fr/2013NICE4005.

Testo completo
Abstract (sommario):
Cette thèse porte sur l’étude d’une méthode de type Galerkin discontinu en domaine temporel (GDDT), afin de résoudre numériquement les équations de Maxwell instationnaires sur des maillages hybrides tétraédriques/hexaédriques en 3D (triangulaires/quadrangulaires en 2D) et non-conformes, que l’on note méthode GDDT-PpQk. Comme dans différents travaux déjà réalisés sur plusieurs méthodes hybrides (par exemple des combinaisons entre des méthodes Volumes Finis et Différences Finies, Éléments Finis et Différences Finies, etc.), notre objectif principal est de mailler des objets ayant une géométrie complexe à l’aide de tétraèdres, pour obtenir une précision optimale, et de mailler le reste du domaine (le vide environnant) à l’aide d’hexaèdres impliquant un gain en terme de mémoire et de temps de calcul. Dans la méthode GDDT considérée, nous utilisons des schémas de discrétisation spatiale basés sur une interpolation polynomiale nodale, d’ordre arbitraire, pour approximer le champ électromagnétique. Nous utilisons un flux centré pour approcher les intégrales de surface et un schéma d’intégration en temps de type saute-mouton d’ordre deux ou d’ordre quatre. Après avoir introduit le contexte historique et physique des équations de Maxwell, nous présentons les étapes détaillées de la méthode GDDT-PpQk. Nous réalisons ensuite une analyse de stabilité L2 théorique, en montrant que cette méthode conserve une énergie discrète et en exhibant une condition suffisante de stabilité de type CFL sur le pas de temps, ainsi que l’analyse de convergence en h (théorique également), conduisant à un estimateur d’erreur a-priori. Ensuite, nous menons une étude numérique complète en 2D (ondes TMz), pour différents cas tests, des maillages hybrides et non-conformes, et pour des milieux de propagation homogènes ou hétérogènes. Nous faisons enfin de même pour la mise en oeuvre en 3D, avec des simulations réalistes, comme par exemple la propagation d’une onde électromagnétique dans un modèle hétérogène de tête humaine. Nous montrons alors la cohérence entre les résultats mathématiques et numériques de cette méthode GDDT-PpQk, ainsi que ses apports en termes de précision et de temps de calcul
This thesis is concerned with the study of a Discontinuous Galerkin Time-Domain method (DGTD), for the numerical resolution of the unsteady Maxwell equations on hybrid tetrahedral/hexahedral in 3D (triangular/quadrangular in 2D) and non-conforming meshes, denoted by DGTD-PpQk method. Like in several studies on various hybrid time domain methods (such as a combination of Finite Volume with Finite Difference methods, or Finite Element with Finite Difference, etc.), our general objective is to mesh objects with complex geometry by tetrahedra for high precision and mesh the surrounding space by square elements for simplicity and speed. In the discretization scheme of the DGTD method considered here, the electromagnetic field components are approximated by a high order nodal polynomial, using a centered approximation for the surface integrals. Time integration of the associated semi-discrete equations is achieved by a second or fourth order Leap-Frog scheme. After introducing the historical and physical context of Maxwell equations, we present the details of the DGTD-PpQk method. We prove the L2 stability of this method by establishing the conservation of a discrete analog of the electromagnetic energy and a sufficient CFL-like stability condition is exhibited. The theoritical convergence of the scheme is also studied, this leads to a-priori error estimate that takes into account the hybrid nature of the mesh. Afterward, we perform a complete numerical study in 2D (TMz waves), for several test problems, on hybrid and non-conforming meshes, and for homogeneous or heterogeneous media. We do the same for the 3D implementation, with more realistic simulations, for example the propagation in a heterogeneous human head model. We show the consistency between the mathematical and numerical results of this DGTD-PpQk method, and its contribution in terms of accuracy and CPU time
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Malak, Rehan. "Contribution à l'ordre dominant de la polarisation hadronique du vide au moment magnétique anomal du muon en QCD sur réseau avec quatre saveurs de quarks à leur masse physique". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4089.

Testo completo
Abstract (sommario):
Les moments magnétiques anomaux des leptons ont joué un rôle important dans le développement du modèle standard de la physique des particules. Aujourd’hui, celui du muon est mesuré très précisément et le sera avec une precision encore plus grande par une expérience qui débutera en 2017. Dans la mesure où la prédiction théorique pourra être faite avec des incertitudes comparables, un test rigoureux du modèle standard sera possible. Nous étudions ici le facteur limitant de cette prédiction, la contribution de la polarisation hadronique du vide à l’ordre dominant (HVP-LO). Nous calculons cette contribution numériquement à l’aide d’une version discrétisée de la théorie de l’interaction forte, la chromodynamique quantique sur réseau. Le calcul haute-performance permet de résoudre la théorie dans son régime hautement non-linéaire qui est le plus pertinent ici. Les algorithmes de simulation et les méthodes utilisées pour obtenir la polarisation hadronique, ainsi que les incertitudes associées, sont décrits. Ces méthodes sont ensuite appliquées à des simulations réalisées avec la collaboration Budapest-Marseille-Wuppertal. Dans un premier temps, elles sont implémentées dans une étude dédiée des effets de volume fini. Les méthodes les plus robustes sont ensuite utilisées pour calculer la polarisation hadronique avec des simulations qui comprennent N_f=2+1+1 saveurs de quarks. Celles-ci sont réalisées directement à la valeur physique des masses de quarks u, d, s et c, avec six tailles de maille et dans de gros volumes de 6 fm^3. Elles nous permettent de calculer la contribution HVP-LO au moment magnétique anomal du muon avec des erreurs contrôlées d’environ 3%
The anomalous magnetic moments of leptons have played an important role in the development of the Standard Model of particle physics. Today, that of the muon is measured very precisely and will be so with even higher precision in an experiment that will begin in 2017. To the extent that the theoretical prediction can be made with comparable uncertainties, a rigorous test of the Standard Model will be possible. Here we study the limiting factor in this prediction, the leading-order hadronic vacuum polarization contribution (HVP-LO). We compute this contribution numerically with a discretized version of the theory of the strong interaction: lattice Quantum Chromodynamics. High-performance computing allows to solve the theory in its highly nonlinear regime, which is the one most relevant here. The simulation algorithms and the methods used to obtain the HVP, as well as the associated statistical and systematic uncertainties, are described. These methods are then applied to simulations performed with the Budapest-Marseille-Wuppertal collaboration. First they are implemented in a dedicated study of finite-volume effects. The most robust methods are then used to compute the HVP with simulations which include N_f=2+1+1 flavors of quarks. These are performed directly at the physical values of the u, d, s and c quark masses, with six lattice spacings and in large volumes of 6 fm^3. They allow us to compute the HVP-LO contribution to the anomalous magnetic moment of the muon with controlled errors of around 3%
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Roudjane, Mourad. "Etude expérimentale et théorique des spectres d'émission et d'absorption VUV des molécules H2, D2 et HD". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00208073.

Testo completo
Abstract (sommario):
Les molécules H2, HD et D2 occupent une place fondamentale en physique moléculaire, en astrophysique et en physique des plasmas. H2 est la molécule la plus abondante dans l'univers. Les récentes observations à haute résolution des transitions VUV de cette molécule et de son isotope HD ont été effectuées par le satellite FUSE dans le domaine 90.5 -118.7 nm. Ces observations permettent de déterminer le rapport d'intensités des raies HD/H2, considéré comme un outil nouveau pour évaluer le rapport d'abondances D/H, qui est connu pour être un traceur efficace de l'évolution chimique de l'Univers. Par ailleurs, les molécules H2, HD et D2 sont formées dans le plasma de bord des tokamaks et contribuent aux pertes radiatives du milieu. Par conséquent, il est indispensable de disposer de données spectroscopiques de haute qualité obtenues en laboratoire pour une exploitation fiable des résultats d'observations ou pour une modélisation réaliste des plasmas de fusion.

L'objectif de cette thèse est d'effectuer une étude expérimentale à haute résolution des spectres d'émission et d'absorption des isotopes D2 et HD de l'hydrogène moléculaire dans le VUV et de la compléter par une étude théorique des états électroniques excités en relation avec les transitions observées. Une telle étude avait été effectuée dans notre laboratoire et avait abouti à la réalisation d'un atlas VUV dans le domaine 78-170 nm.

Les spectres d'émission de HD et D2 sont produits par une source à décharge Penning opérant sous faible pression, et sont enregistrés dans la région spectrale 78 -170 nm à l'aide du spectrographe sous vide de 10 mètres à haute résolution (~ 150 000) de l'Observatoire de Meudon, soit sur plaques photographiques, soit sur des écrans phosphore photostimulables pour mesure d'intensités. Les spectres enregistrés contiennent plus de 20 000 raies. Les longueurs d'onde sont mesurées avec une précision de Δλ/λ= 10-6.Les raies des molécules D2 et H2 étant inévitablement présentes dans le spectre de HD, nous avons d'abord cherché à réaliser l'analyse du spectre de D2, qui consiste à identifier et à assigner les raies aux transitions électroniques entre des niveaux d'énergie de la molécule.

Nous avons par ailleurs réalisé une étude en absorption des molécules HD et D2 au Centre Laser LCVU d'Amsterdam. Nous avons mesuré par spectroscopie laser à deux photons 1XUV+1UV, de nouvelles longueurs d'onde avec une précision inégalée de Δλ/λ= 10-8 dans le domaine spectral 99.9-104 nm permis par l'accordabilité du laser XUV.

Ces nouvelles longueurs d'ondes constitueront une base de données de raies de référence pour la calibration des spectres moléculaires, mais leurs intérêts ne s'arrêtent pas au laboratoire. En effet, les nouvelles raies de HD mesurées par spectroscopie laser, ajoutées aux raies de H2 déjà mesurées avec une précision similaire, seront utilisées comme référence pour mettre en évidence une possible variation cosmologique du rapport de masse proton-électron μ= mp/me, par comparaison avec des longueurs d'onde de raies de H2 ou de HD observées dans les spectres d'absorption de quasars à grands déplacements vers le rouge. Cette étude nécessite la connaissance des coefficients de sensibilité des longueurs d'onde par rapport à la possible variation de μ, que nous avons calculés par la résolution d'un système d'équations couplées pour les états électroniques B, B', C et D de la molécule H2 et HD pour diverses valeurs de μ.

Durant ce travail de thèse, nous nous sommes également intéressés à des transitions entre états libres-libres et états libres-liés de la molécule H2. Ces transitions se produisent lors d'une collision H-H formant une quasi-molécule et sont responsables de l'apparition de satellites dans l'aile des raies de l'atome d'hydrogène. Nous avons effectué une étude quantique du satellite quasi-moléculaire de la raie Lymanβ et calculé le profil d'absorption du satellite en fonction de la température. Cette variation est un outil important de diagnostic pour la détermination des caractéristiques des atmosphères des naines blanches.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia