Thèses sur le sujet « Précision de calcul »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Précision de calcul.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Précision de calcul ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Gratton, Serge. « Outils théoriques d'analyse du calcul à précision finie ». Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Texte intégral
Résumé :
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Brunin, Maxime. « Étude du compromis précision statistique-temps de calcul ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Texte intégral
Résumé :
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
Styles APA, Harvard, Vancouver, ISO, etc.
3

Vaccon, Tristan. « Précision p-adique ». Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Texte intégral
Résumé :
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
Styles APA, Harvard, Vancouver, ISO, etc.
4

Braconnier, Thierry. « Sur le calcul des valeurs propres en précision finie ». Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Texte intégral
Résumé :
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
Styles APA, Harvard, Vancouver, ISO, etc.
5

Pirus, Denise. « Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O ». Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Texte intégral
Résumé :
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
Styles APA, Harvard, Vancouver, ISO, etc.
6

Nguyen, Hai-Nam. « Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués ». Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Boucher, Mathieu. « Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté ». Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Texte intégral
Résumé :
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
Styles APA, Harvard, Vancouver, ISO, etc.
8

Khali, Hakim. « Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Fall, Mamadou Mourtalla. « Contribution à la détermination de la précision de calcul des algorithmes de traitements numériques ». Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0173.

Texte intégral
Résumé :
Les travaux effectués dans le cadre de cette thèse contribuent à la détermination de la précision de calcul des algorithmes de traitements numériques, par l'élaboration d'une nouvelle approche théorique et pratique de certification d'algorithmes. Par certification d'algorithme, nous entendons : 1) la quantification des erreurs de sortie lorsque celles d'entrée sont connues, 2) la détermination de la stabilité d'un algorithme dans tout son domaine de validité, 3) la détermination des points critiques de l'algorithme, 4) la comparaison et la graduation de nombreux algorithmes censés résoudre le même problème. L'algorithme à certifier sera considéré comme une boite noire dont on ne peut voir que les entrées et les sorties. A partir de son comportement en fonction des entrées données, nous construisons un modèle mathématique permettant de l'identifier, en tout point de son domaine de définition. La nouvelle approche élaborée est fondée sur la théorie des problèmes inverses associée à celle des probabilités.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Haddaoui, Khalil. « Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066176/document.

Texte intégral
Résumé :
La simulation numérique adaptative d'écoulements présentant des phénomènes multi-échelles s'effectue généralement au moyen d'une hiérarchie de modèles différents selon l'échelle mise en jeu et le niveau de précision requis. Ce type de modélisation numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l'analyse et à la mise en œuvre de méthodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d'équations aux dérivées partielles hyperboliques.Dans une première partie, nous développons et analysons une méthode numérique dédiée au couplage interfacial des équations d'Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d'une loi de pression distincte et l'interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l'interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l'interface (typiquement des pertes de charge) et sa définition permet l'application de plusieurs stratégies de couplage. Notre méthode d'approximation repose sur les techniques d'approximation par relaxation de type Suliciu. La résolution exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L'implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu'il est possible de contrôler l'écoulement à l'interface de couplage en calculant des poids solutions de problèmes d'optimisation sous contraintes.La deuxième partie de cette thèse est dédiée au développement de deux schémas numériques d'ordre arbitrairement élevé en espace pour l'approximation des solutions stationnaires du problème mixte associé au modèle de Jin et Xin. Nos schémas d'approximation reposent sur la méthode de Galerkin discontinue. L’approximation des solutions du problème mixte par notre premier schéma fait intervenir uniquement des erreurs de discrétisation tandis que notre deuxième schéma est constitué à la fois d'erreurs de modélisation et de discrétisation. L'erreur de modélisation provient du remplacement, dans certaines régions spatiales, de la résolution du modèle de relaxation par celle de l'équation scalaire équilibre associée. Sous l'hypothèse d'une interface de couplage éventuellement caractéristique, la résolution du problème de Riemann associé au modèle couplé nous permet de construire un schéma numérique d'ordre arbitrairement élevé prenant en compte l'éventuelle existence de couches limites à l'interface de couplage. Enfin, la mise en œuvre de ces méthodes nous permet d'analyser quantitativement et qualitativement les erreurs de modélisation et de discrétisation commises lors de l'utilisation du schéma couplé. Ces erreurs sont fonction du niveau de raffinement de maillage utilisé, du degré de polynôme choisi et de la position de l'interface de couplage
The adaptive numerical simulation of multiscale flows is generally carried out by means of a hierarchy of different models according to the specific scale into play and the level of precision required. This kind of numerical modeling involves complex multiscale coupling problems. This thesis is thus devoted to the development, analysis and implementation of efficient methods for solving coupling problems involving hyperbolic models.In a first part, we develop and analyze a coupling algorithm for one-dimensional Euler systems. Each system of conservation laws is closed with a different pressure law and the coupling interface separating these models is assumed fix and thin. The transmission conditions linking the systems are modelled thanks to a measure source term concentrated at the coupling interface. The weight associated to this measure models the losses of conservation and its definition allows the application of several coupling strategies. Our method is based on Suliciu's relaxation approach. The exact resolution of the Riemann problem associated to the relaxed system allows us to design an extremely accurate scheme for the coupling model. This scheme preserves equilibrium solutions of the coupled problem and can be used for general pressure laws. Several numerical experiments assess the performances of our scheme. For instance, we show that it is possible to control the flow at the coupling interface when solving constrained optimization problems for the weights.In the second part of this manuscript we design two high order numerical schemes based on the discontinuous Galerkin method for the approximation of the initial-boundary value problem associated to Jin and Xin's model. Our first scheme involves only discretization errors whereas the second approximation involves both modeling and discretization errors. Indeed in the second approximation, we replace in some regions the resolution of the relaxation model by the resolution of its associated scalar equilibrium equation. Under the assumption of a possible characteristic coupling interface, we exactly solve the Riemann problem associated to the coupled model. This resolution allows us to design a high order numerical scheme which captures the possible boundary layers at the coupling interface. Finally, the implementation of our methods enables us to analyze quantitatively and qualitatively the modeling and discretization errors involved in the coupled scheme. These errors are functions of the mesh size, the degree of the polynomial approximation and the position of the coupling interface
Styles APA, Harvard, Vancouver, ISO, etc.
11

Rizzo, Axel. « Amélioration de la précision du formulaire DARWIN2.3 pour le calcul du bilan matière en évolution ». Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0306/document.

Texte intégral
Résumé :
Le formulaire de calcul DARWIN2.3, basé sur l’évaluation des données nucléaires JEFF-3.1.1, est dédié aux applications du cycle du combustible nucléaire. Il est validé expérimentalement pour le calcul du bilan matière par comparaison avec des mesures de rapports isotopiques réalisées sur des tronçons de combustibles irradiés en réacteur de puissance. Pour certains nucléides d’intérêt pour le cycle du combustible, la validation expérimentale montre que le calcul de la concentration en évolution pourrait être amélioré. C’est dans ce contexte que les travaux de thèse ont été menés : après s’être assuré que le biais Calcul / Expérience (C/E) est majoritairement dû aux données nucléaires, deux voies d’amélioration du calcul du bilan matière sont proposées et étudiées.La première voie d’amélioration s’attache à la ré-estimation des données nucléaires par assimilation des données intégrales. Elle consiste en l'assimilation des données provenant de la validation expérimentale du calcul du bilan matière avec DARWIN2.3 à l'aide du code d’évaluation des données nucléaires CONRAD. Des recommandations d’évolution d’évaluation, qui découlent de l’analyse de ces travaux, sont effectuées.La deuxième voie d’amélioration consiste à proposer de nouvelles expériences pour valider les données nucléaires impliquées dans la formation de nucléides pour lesquels on ne dispose pas d’expérience pour valider le calcul de la concentration avec DARWIN2.3. La faisabilité d’une expérience dédiée à la validation des sections efficaces des réactions de formation du 14C, à savoir 14N(n,p) et 17O(n,α), a été démontrée en ce sens
The DARWIN2.3 calculation package, based on the use of the JEFF-3.1.1 nuclear data library, is devoted to nuclear fuel cycle studies. It is experimentally validated for fuel inventory calculation thanks to dedicated isotopic ratios measurements realized on in-pile irradiated fuel rod cuts. For some nuclides of interest for the fuel cycle, the experimental validation work points out that the concentration calculation could be improved. The PhD work was done in this framework: having verified that calculation-to-experiment (C/E) biases are mainly due to nuclear data, two ways of improving fuel inventory calculation are proposed and investigated. It consists on one hand in improving nuclear data using the integral data assimilation technique. Data from the experimental validation of DARWIN2.3 fuel inventory calculation are assimilated thanks to the CONRAD code devoted to nuclear data evaluation. Recommendations of nuclear data evaluations are provided on the basis of the analysis of the assimilation work. On the other hand, new experiments should be proposed to validate nuclear data involved in the buildup of nuclides for which there is no post-irradiation examination available to validate DARWIN2.3 fuel inventory calculation. To that extent, the feasibility of an experiment dedicated to the validation of the ways of formation of 14C, which are 14N(n,p) and 17O(n,α) reaction cross sections, was demonstrated
Styles APA, Harvard, Vancouver, ISO, etc.
12

Hasni, Hamadi. « Logiciels vectoriels d'optimisation de problèmes non contraints de grandes tailles et calcul de la précision ». Paris 6, 1986. http://www.theses.fr/1986PA066477.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Madeira, De Campos Velho Pedro Antonio. « Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle ». Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00625497.

Texte intégral
Résumé :
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Madeira, de Campos Velho Pedro Antonio. « Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM027/document.

Texte intégral
Résumé :
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants
Large-Scale Distributed Computing (LSDC) systems are in production today to solve problems that require huge amounts of computational power or storage. Such systems are composed by a set of computational resources sharing a communication infrastructure. In such systems, as in any computing environment, specialists need to conduct experiments to validate alternatives and compare solutions. However, due to the distributed nature of resources, performing experiments in LSDC environments is hard and costly. In such systems, the execution flow depends on the order of events which is likely to change from one execution to another. Consequently, it is hard to reproduce experiments hindering the development process. Moreover, resources are very likely to fail or go off-line. Yet, LSDC archi- tectures are shared and interference among different applications, or even among processes of the same application, affects the overall application behavior. Last, LSDC applications are time consuming, thus conducting many experiments, with several parameters is often unfeasible. Because of all these reasons, experiments in LSDC often rely on simulations. Today we find many simulation approaches for LSDC. Most of them objective specific architectures, such as cluster, grid or volunteer computing. Each simulator claims to be more adapted for a particular research purpose. Nevertheless, those simulators must address the same problems: modeling network and managing computing resources. Moreover, they must satisfy the same requirements providing: fast, accurate, scalable, and repeatable simulations. To match these requirements, LSDC simulation use models to approximate the system behavior, neglecting some aspects to focus on the desired phe- nomena. However, models may be wrong. When this is the case, trusting on models lead to random conclusions. In other words, we need to have evidence that the models are accurate to accept the con- clusions supported by simulated results. Although many simulators exist for LSDC, studies about their accuracy is rarely found. In this thesis, we are particularly interested in analyzing and proposing accurate models that respect the requirements of LSDC research. To follow our goal, we propose an accuracy evaluation study to verify common and new simulation models. Throughout this document, we propose model improvements to mitigate simulation error of LSDC simulation using SimGrid as case study. We also evaluate the effect of these improvements on scalability and speed. As a main contribution, we show that intuitive models have better accuracy, speed and scalability than other state-of-the art models. These better results are achieved by performing a thorough and systematic analysis of problematic situations. This analysis reveals that many small yet common phenomena had been neglected in previous models and had to be accounted for to design sound models
Styles APA, Harvard, Vancouver, ISO, etc.
15

Tisseur, Françoise. « Méthodes numériques pour le calcul d'éléments spectraux : étude de la précision, la stabilité et la parallélisation ». Saint-Etienne, 1997. http://www.theses.fr/1997STET4006.

Texte intégral
Résumé :
Cette thèse est constituée de deux parties. La première traite de la méthode QR pour le calcul de valeurs propres de matrices quelconques, de tailles modérées. Les contributions originales à ce sujet sont a) une preuve rigoureuse de sa stabilité inverse, b) un nouveau critère d'arrêt justifié par une analyse mathématique. La seconde partie traite de la méthode de Yau et Lu pour le calcul de valeurs propres de matrices symétriques réelles de grandes tailles. Les contributions dans ce travail à ce sujet sont a) une compréhension mathématique accrue de la méthode, b) sa validation numérique, c) une proposition de parallélisation
Styles APA, Harvard, Vancouver, ISO, etc.
16

Khadraoui, Sofiane. « Calcul par intervalles et outils de l’automatique permettant la micromanipulation à précision qualifiée pour le microassemblage ». Thesis, Besançon, 2012. http://www.theses.fr/2012BESA2027/document.

Texte intégral
Résumé :
Les systèmes micro mécatroniques intègrent dans un volume très réduit des fonctions de natures différentes (électrique, mécanique, thermique, magnétique ou encore optique). Ces systèmes sont des produits finaux ou sont dans des systèmes de taille macroscopique. La tendance à la miniaturisation et à la complexité des fonctions à réaliser conduit à des microsystème en trois dimensions et constitué´es de composants provenant de processus de (micro)fabrication parfois incompatibles. L’assemblage microbotique est une réponse aux challenges de leur réalisation. Pour assurer les opérations d’ assemblage avec des précisions et des résolutions élevées, des capteurs adaptés au micro monde et des outils particuliers de manipulation doivent être utilisés. Les éléments principaux constituants les systèmes de micromanipulation sont les micro-actionneurs.Ces derniers sont souvent faits à base de matériaux actifs parmi lesquels les matériaux Piézoélectriques . Les actionneurs piézoélectriques sont caractérisés par leur très haute résolution (souvent nanométrique), leur grande bande-passante (plus du kHz pour certains micro-actionneurs) et leur grande densité de force. Tout ceci en fait des actionneurs particulièrement intéressants pour le micro-assemblage et la micromanipulation. Cependant,ces actionneurs présentent, en plus de leur comportement non-linéaire, une forte dépendance à l’environnement et aux tâches considérées. De plus, ces tâches de micromanipulation et de micro-assemblage sont confrontées à un manque de capteurs précis et compatibles avec les dimensions du micromonde. Ceci engendre des incertitudes sur les paramètres du élaboré lors de l’identification. En présence du verrou technologique lié à la réalisation des capteurs et des propriétés complexes des actionneurs, il est difficile d’obtenir les performances de haut niveau requises pour réussir les tâches de micromanipulation et de micro-assemblage. C’est notamment la mise au point d’outils de commande convenables qui permet d’atteindre les niveaux de précision et de résolution nécessaires.Les travaux de cette thèse s’inscrivent dans ce cadre. Afin de réussir les tâches de micromanipulation et de micro-assemblage, plusieurs méthodes de commande prenant en compte des incertitudes liées au modèle, comme les approches de commande robustes de type H-inf ont déjà utilisées pour commander les actionneurs piézoélectriques.L’un des inconvénients majeurs de ces méthodes est la dérivation de régulateurs d’ordre élevé qui sont coûteux en calcul et peuvent difficilement être embarqués dans les microsystèmes. Afin de prendre en compte les incertitudes paramétriques des modèles des Systèmes à commander, nous proposons une solution alternative basée sur l’utilisation du calcul par intervalles. Ces techniques du calcul par intervalles sont combinées avec les outils de l’automatique pour modéliser et commander les microsystèmes. Nous chercherons également à montrer que l’utilisation de ces techniques permet d’associer la robustesse et la simplicité des correcteurs dérivés
Micromechatronic systems integrate in a very small volume functions with differentnatures. The trend towards miniaturization and complexity of functions to achieve leadsto 3-dimensional microsystems. These 3-dimensional systems are formed by microroboticassembly of various microfabricated and incompatible components. To achieve theassembly operations with high accuracy and high resolution, adapted sensors for themicroworld and special tools for the manipulation are required. The microactuators arethe main elements that constitute the micromanipulation systems. These actuators areoften based on smart materials, in particular piezoelectric materials. The piezoelectricmaterials are characterized by their high resolution (nanometric), large bandwidth (morethan kHz) and high force density. This why the piezoelectric actuators are widely usedin the micromanipulation and microassembly tasks. However, the behavior of the piezoelectricactuators is non-linear and very sensitive to the environment. Moreover, thedeveloppment of the micromanipulation and the microassembly tasks is limited by thelack of precise and compatible sensors with the microworld dimensions. In the presenceof the difficulties related to the sensors realization and the complex characteristics ofthe actuators, it is difficult to obtain the required performances for the micromanipulationand the microassembly tasks. For that, it is necessary to develop a specific controlapproach that achieves the wanted accuracy and resolution.The works in this thesis deal with this problematic. In order to success the micromanipulationand the microassembly tasks, robust control approaches such as H∞ havealready been tested to control the piezoelectric actuators. However, the main drawbacksof these methods is the derivation of high order controllers. In the case of embedded microsystems,these high order controllers are time consuming which limit their embeddingpossibilities. To address this problem, we propose in our work an alternative solutionto model and control the microsystems by combining the interval techniques with theautomatic tools. We will also seek to show that the use of these techniques allows toderive robust and low-order controllers
Styles APA, Harvard, Vancouver, ISO, etc.
17

Benmouhoub, Farah. « Optimisation de la précision numérique des codes parallèles ». Thesis, Perpignan, 2022. http://www.theses.fr/2022PERP0009.

Texte intégral
Résumé :
Les nombres flottants sont utilisés à la place des nombres réels pour les calculs sur ordinateurs. L'utilisation de ces nombres introduit des erreurs d'arrondi qui sont en général acceptables dans la mesure où le résultat produit par la machine est proche de celui que l'on aurait obtenu en utilisant des nombres réels. Cependant, elles peuvent aussi être amplifiées par propagation, dénuant de sens le résultat d'un calcul, ce qui peut avoir des conséquences catastrophiques dans de nombreux domaines d'application comme par exemple l'aéronautique ou la finance. La précision des calculs en nombres flottants dépend de nombreux facteurs: types d'opérations effectuées, valeurs et types de données employés, ordinateurs utilisés. En outre, la précision des calculs dépend fortement de l'ordre dans lequel sont effectuées les opérations et le parallélisme démultiplie les ordonnancements possibles. Le sujet de thèse proposé concerne ce dernier point : améliorer la précision de codes de calcul scientifique massivement parallèles tels que ce que l'on trouve dans le domaine du HPC (High Performance Computing) Ces dernières années, des techniques automatiques ont été mises au point afin de valider et réécrire les codes de calcul scientifique afin de les rendre plus précis. Ces techniques rencontrent un vif intérêt tant scientifique qu'industriel. Cependant les techniques existantes acceptent uniquement des programmes séquentiels ce qui exclut les nombreux codes de calcul intensif développés dans le domaine du HPC. Or ces codes parallèles, utilisés pour réaliser des simulations numériques complexes dans de nombreux domaines scientifiques et techniques, sont particulièrement sujets aux erreurs introduites par les nombres flottants car le parallélisme modifie l'ordre dans lequel sont effectués les calculs, voire rend cet ordre aléatoire. Les résultats obtenus peuvent alors être altérés ou non reproductibles (plusieurs si mulations identiques donnant des résultats différents)
In high performance computing, nearly all the implementations and published experiments use foating-point arithmetic. However, since foating-point numbers are finite approximations of real numbers, it may result in hazards because of the accumulated errors.These round-off errors may cause damages whose gravity varies depending on the critical level of the application. Parallelism introduces new numerical accuracy problems due to the order of operations in this kind of systems. The proposed thesis subject concerns this last point: improving the precision of massively parallel scientific computing codes such as those found in the field of HPC (High Performance Computing)
Styles APA, Harvard, Vancouver, ISO, etc.
18

Rey, Valentine. « Pilotage de stratégies de calcul par décomposition de domaine par des objectifs de précision sur des quantités d’intérêt ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN018/document.

Texte intégral
Résumé :
Ces travaux de recherche ont pour objectif de contribuer au développement et à l'exploitation d'outils de vérification des problèmes de mécanique linéaires dans le cadre des méthodes de décomposition de domaine sans recouvrement. Les apports de cette thèse sont multiples : * Nous proposons d'améliorer la qualité des champs statiquement admissibles nécessaires à l'évaluation de l'estimateur par une nouvelle méthodologie de reconstruction des contraintes en séquentiel et par des optimisations du calcul de l'intereffort en cadre sous-structuré.* Nous démontrons des bornes inférieures et supérieures de l'erreur séparant l'erreur algébrique (due au solveur itératif) de l'erreur de discrétisation (due à la méthode des éléments finis) tant pour une mesure globale que pour une quantité d'intérêt. Cette séparation permet la définition d'un critère d'arrêt objectif pour le solveur itératif.* Nous exploitons les informations fournies par l'estimateur et les espaces de Krylov générés pour mettre en place une stratégie auto-adaptative de calcul consistant en une chaîne de résolution mettant à profit remaillage adaptatif et recyclage des directions de recherche. Nous mettons en application le pilotage du solveur par un objectif de précision sur des exemples mécaniques en deux dimensions
This research work aims at contributing to the development of verification tools in linear mechanical problems within the framework of non-overlapping domain decomposition methods.* We propose to improve the quality of the statically admissible stress field required for the computation of the error estimator thanks to a new methodology of stress reconstruction in sequential context and thanks to optimizations of the computations of nodal reactions in substructured context.* We prove guaranteed upper and lower bounds of the error that separates the algebraic error (due to the iterative solver) from the discretization error (due to the finite element method) for both global error measure mentand goal-oriented error estimation. It enables the definition of a new stopping criterion for the iterative solver which avoids over-resolution.* We benefit the information provided by the error estimator and the Krylov subspaces built during the resolution to set an auto-adaptive strategy. This strategy consists in sequel of resolutions and takes advantage of adaptive remeshing and recycling of search directions .We apply the steering of the iterative solver by objective of precision on two-dimensional mechanical examples
Styles APA, Harvard, Vancouver, ISO, etc.
19

Muller, Antoine. « Contributions méthodologiques à l'analyse musculo-squelettique de l'humain dans l'objectif d'un compromis précision performance ». Thesis, Rennes, École normale supérieure, 2017. http://www.theses.fr/2017ENSR0007/document.

Texte intégral
Résumé :
L'analyse musculo-squelettique est un outil de plus en plus utilisé dans les domaines d'application tels que l'ergonomie, la rééducation ou le sport. Cette analyse permet une estimation des efforts articulaires et des tensions musculaires mises en jeu au cours du mouvement. Les modèles et méthodes que cette analyse exploite conduisent à des résultats de plus en plus réalistes. Cela a pour conséquence de limiter les performances de ces logiciels : le temps de calcul augmente et il est nécessaire de mettre en place des protocoles ainsi que qu’un post-traitement des données long et complexe pour adapter les modèles au sujet. Enfin, de tels logiciels nécessitent une expertise importante des utilisateurs pour être pleinement opérationnels. Ces différents points limitent dans la plupart des cas l'utilisation de ces logiciels au domaine de la recherche.Dans l'objectif de démocratiser l'utilisation des analyses musculo-squelettiques, cette thèse propose des contributions permettant d’améliorer les performances de telles analyses en conservant un bon niveau de précision, ainsi que des contributions permettant une calibration spécifique au sujet des modèles facile à mettre en œuvre. Tout d'abord, dans un souci de maîtrise complète des outils de l’analyse du mouvement, cette thèse développe une approche globale sur l'ensemble des étapes qui la constitue : les étapes de cinématique, de dynamique et d'estimation des efforts musculaires. Pour chacune de ces étapes, des méthodes de résolution en temps rapide ont été proposées. Une méthode de résolution de la question de la répartition des efforts musculaires utilisant une base de données pré-calculée est notamment largement développée. De plus, un processus complet de calibration utilisant uniquement le matériel disponible dans une salle d'analyse de mouvement classique a été développé, où les données utilisées sont issues de capture de mouvement ainsi que de plateformes de force
Musculoskeletal analysis becomes popular in applications fields such as ergonomics, rehabilitation or sports. This analysis enables an estimation of joint reaction forces and muscles tensions generated during motion. Models and methods used in such an analysis give more and more accurate results. As a consequence, performances of software are limited: computation time increases, and experimental protocols and associated post-process are long and tedious to define subject-specific models. Finally, such software need a high expertise level to be driven properly.In order to democratize the use of musculoskeletal analysis for a wide range of users, this thesis proposes contributions enabling better performances of such analyses and preserving accuracy, as well as contributions enabling an easy subject-specific model calibration. Firstly, in order to control the whole analysis process, the thesis is developed in a global approach of all the analysis steps: kinematics, dynamics and muscle forces estimation. For all of these steps, quick analysis methods have been proposed. Particularly, a quick muscle force sharing problem resolution method has been proposed, based on interpolated data. Moreover, a complete calibration process, based on classical motion analysis tools available in a biomechanical lab has been developed, based on motion capture and force platform data
Styles APA, Harvard, Vancouver, ISO, etc.
20

Bouraoui, Rachid. « Calcul sur les grands nombres et VLSI : application au PGCD, au PGCD étendu et à la distance euclidienne ». Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343219.

Texte intégral
Résumé :
Dans le cadre de cette thèse nous avons étudie l'implantation des algorithmes de l'arithmétique en ligne. En particulier, la réalisation de deux circuits destines aux applications exigeant une précision infinie est exposée. En effet, dans de nombreux domaines tels que la génération de nombres aléatoires, cryptographie, calcul formel, arithmétique exacte, réduction de fraction en précision infinie, calcul modulaire, traitement d'images..., les opérateurs classiques manquent d'efficacité. Face a ce type de problèmes, un remède peut être apporte par le calcul en ligne selon lequel les calculs sont faits en introduisant les opérandes en série chiffre a chiffre en notation redondante. Nous obtenons ainsi un haut degré de parallélisme et une précision variable linéairement. Le premier circuit présenté implante un algorithme de pgcd nomme Euclide offrant, d'après les simulations, le meilleur compromis cout matériel/performance. Il donne également les coefficients de Bezout. Ce circuit est appelé a résoudre les problèmes lies au temps de calcul du pgcd par les méthodes classiques rencontrées dans beaucoup d'applications. Une deuxième application montre la possibilité de fusionner des opérateurs en ligne afin d'obtenir un opérateur complexe. L'exemple traite dans cette thèse est celui de la distance euclidienne: z=x#2+y#2 utilisée, entre autres, pour la resolution du moindre carre des systèmes linéaires
Styles APA, Harvard, Vancouver, ISO, etc.
21

Rolland, Luc Hugues. « Outils algébriques pour la résolution de problèmes géométriques et l'analyse de trajectoire de robots parallèles prévus pour des applications à haute cadence et grande précision ». Nancy 1, 2003. http://www.theses.fr/2003NAN10180.

Texte intégral
Résumé :
Les robots parallèles sont apparus sur les simulateurs de vol en raison de leurs dynamiques élevées. On cherche à les appliquer maintenant comme machine-outil. Les exigences de précision sont très sévères. Le 1er objectif est de trouver une méthode de résolution des problèmes géométriques. Peu d'implantations ont réussi à résoudre le cas général de la plateforme de Gough. On répertorie 8 formulations algébriques du modèle géométrique. La méthode exacte proposée est fondée sur le calcul de la base de Gröbner et la représentation univariée rationnelle. Cette méthode est trop lente pour la poursuite de trajet. Le 2e objectif est la mise en œuvre d'une méthode itérative numérique (Newton) rapide et certifiée en s'appuyant sur le théorème de Kantorovich et l'arithmétique par intervalle. Le 3e objectif est la faisabilité d'une tache d'usinage. Un simulateur de trajectoire inclut des calculs de précision de l'outil en fonction de la vitesse d'avance. On détermine ainsi l'impact d'une architecture donnée, d'une configuration donnée, des capteurs choisis et de la stratégie de commande. On termine avec une méthode de certification de trajectoire en vérifiant si l'outil peut suivre une trajectoire dans une zone autour de la trajectoire nominale. Un théorème de convergence certifie que l'on peut résoudre le modèle géométrique direct en tout point du tube
Parallel robots have been introduced in flight simulators because of their high dynamics. Research is now focused on their application as machine tools. The requirements on accuracy are more stringent. The first objective is to find a resolution method to kinematics problems. Only a few implementations have succeeded to solve the general case (Gough platform). We have cataloged 8 algebraic formulations for the geometric model. The selected exact method is based the computation of Gröbner bases and the Rational Univariate Representation. The method is too slow for trajectory pursuit. The 2nd objective is the realization of a certified numeric iterative method (Newton) based on the Kantorovich theorem and interval arithmetic. The 3rd objective is milling task feasibility. A trajectory simulator includes tool accuracy estimations with given federate. One can determine the impact of a given architecture, selected sensors and the controller. This thesis terminates by a trajectory certification method, verifying if the tool can follow a trajectory included in a zone around the nominal trajectory. A convergence theorem is applied to insure that the forward kinematics model can be solved everywhere in the tube
Styles APA, Harvard, Vancouver, ISO, etc.
22

Salhi, Yamina. « Étude et réalisation de logiciels d'optimisation non contrainte avec dérivation numérique et estimation de la précision des résultats ». Paris 6, 1985. http://www.theses.fr/1985PA066412.

Texte intégral
Résumé :
L'étude de ces logiciels est la suivante: sureté et rapidité de convergence, approximation de la matrice hersienne, contrôle de la propagation des erreurs d'arrondi et vectorisation sur cray-1 du code développé.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Roch, Jean-Louis. « Calcul formel et parallélisme : l'architecture du système PAC et son arithmétique rationnelle ». Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00334457.

Texte intégral
Résumé :
Pac est un système de calcul formel dédié a une machine Mind massivement parallèle. Dans une première partie, l'architecture du système est décrite. Elle est illustrée par une modélisation théorique et pratique de la parallélisation du produit de deux polynômes. Le système Pac est implante sur la machine t40 de Fps (32 processeurs). Dans une deuxième partie, l'arithmétique nodale en précision infinie sur les rationnels est étudiée. Différents algorithmes sont dégagés, notamment pour la multiplication, la division et le pgcd d'entiers de taille quelconque. Une vectorisation de l'arithmétique de base est discutée et expérimentée
Styles APA, Harvard, Vancouver, ISO, etc.
24

Magaud, Nicolas. « Changements de Représentation des Données dans le Calcul des Constructions ». Phd thesis, Université de Nice Sophia-Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-00005903.

Texte intégral
Résumé :
Nous étudions comment faciliter la réutilisation des
preuves formelles en théorie des types. Nous traitons cette question
lors de l'étude
de la correction du programme de calcul de la racine carrée de GMP.
A partir d'une description formelle, nous construisons
un programme impératif avec l'outil Correctness. Cette description
prend en compte tous les détails de l'implantation, y compris
l'arithmétique de pointeurs utilisée et la gestion de la mémoire.
Nous étudions aussi comment réutiliser des preuves formelles lorsque
l'on change la représentation concrète des données.
Nous proposons un outil qui permet d'abstraire
les propriétés calculatoires associées à un type inductif dans
les termes de preuve.
Nous proposons également des outils pour simuler ces propriétés
dans un type isomorphe. Nous pouvons ainsi passer, systématiquement,
d'une représentation des données à une autre dans un développement
formel.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Bosser, Pierre. « Développement et validation d'une méthode de calcul GPS intégrant des mesures de profils de vapeur d'eau en visée multi-angulaire pour l'altimétrie de haute précision ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00322404.

Texte intégral
Résumé :
Le GPS est la technique de positionnement global la plus utilisée ; sa précision planimétrique en mode géodésique atteint le niveau millimétrique. Cependant, une limite importante réside dans la détermination de la composante verticale (3-15~mm pour des sessions de 24~h) dont l'estimation est dégradée par la perturbation de la propagation des signaux lors de la traversée de la troposphère.
L'action NIGPS, menée en collaboration par l'IGN et le SA (CNRS), vise à développer une correction de ces effets atmosphériques basée sur le sondage de l'humidité à l'aide d'un lidar Raman vapeur d'eau à visée multi-angulaire. Ce travail de thèse s'inscrit dans la continuité des travaux présentés en 2005 par Jérôme Tarniewicz et consiste à poursuivre l'étude méthodologique, les développements instrumentaux et la validation expérimentale de l'analyse conjointe des observations GPS et lidar.
Après l'étude à partir de simulations numériques de l'effet de la troposphère sur le GPS et de sa correction, nous nous intéressons à la restitution précise de mesures de vapeur d'eau par lidar Raman. Les données acquises lors de la campagne VAPIC permettent de vérifier l'impact de la troposphère sur le GPS. La comparaison des observations lidar à celles issues d'autres instruments permet de valider la mesure lidar et souligne la capacité de cette technique à restituer des variations rapides de vapeur d'eau. Une première évaluation de la correction des observations GPS par des mesures lidar au zénith est réalisée sur des sessions GPS de 6 h et montre l'apport de cette technique sur les cas considérés. Ces résultats devraient cependant être améliorés grâce la prise en compte de visées lidar obliques.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Daumas, Marc. « Contributions à l'arithmétique des ordinateurs : vers une maîtrise de la précision ». Phd thesis, Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0012.

Texte intégral
Résumé :
Depuis l'apparition des premiers ordinateurs, l'arithmetique flottante a enormement evolue. La norme ieee 754 a permis de fixer les caracteristiques de l'arithmetique des ordinateurs modernes, mais les scientifiques perdent de plus en plus vite le controle de la validite de leurs calculs. Malgre l'enorme travail associe a la definition des operations, la validation des calculs ne peut toujours pas etre assuree de facon certaine par l'arithmetique implantee sur les ordinateurs. Je presente dans la premiere partie de cette etude deux prolongements qui visent a augmenter la marge de validite des operations: un nouveau mode d'arrondi pour les fonctions trigonometriques et un codage efficace des intervalles accessible facilement a l'utilisateur. L'arithmetique en-ligne permet de gerer efficacement les problemes de precision, mais les operateurs elementaires utilises sont peu adaptes aux architectures modernes de 32 ou 64 bits. L'implantation efficace d'un operateur en-ligne ne peut que passer par la description d'un circuit de bas niveau. Les prediffuses actifs, terme francais utilise pour field programmable gate array, sont des composants speciaux programmables au niveau des portes logiques. Ils permettent d'abaisser les couts de production en evitant de fabriquer un prototype. Nous avons implante grace a ces technologies les operateurs simples de calcul en-ligne: addition, normalisation, etc le noyau arithmetique de calcul en-ligne (nacel) decrit dans ce memoire permet d'implanter les operations arithmetiques usuelles telles que la multiplication, la division, l'extraction de racine carree et les fonctions elementaires trigonometriques et hyperboliques par une approximation polynomiale. Les architectures a flots de donnees sont insensibles aux difficultes sur lesquelles butent les concepteurs des ordinateurs modernes: temps d'acces a la memoire, latence de communication, occupation partielle du pipeline d'instructions. Je decris dans ce document une petite unite de calcul en-ligne (puce). Par une gestion adaptee des etiquettes inspiree pour le controle des donnees de celle utilisee par la manchester data flow machine. Puce reproduit le comportement complet d'une machine a flot de donnees. Elle comprend de plus les operations en-ligne de calcul scientifique. Nous presentons les resultats de simulations sur des calculs divers pour une ou plusieurs unites fonctionnelles
Styles APA, Harvard, Vancouver, ISO, etc.
27

Boucard, Stéphane. « Calcul de haute précision d'énergies de transitions dans les atomes exotiques et les lithiumoïdes : corrections relativistes, corrections radiatives, structure hyperfine et interaction avec le cortège électronique résiduel ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 1998. http://tel.archives-ouvertes.fr/tel-00007148.

Texte intégral
Résumé :
Dans ce mémoire, nous présentons des calculs d'énergie de transition
dans les ions lithiumoïdes et les atomes exotiques : 1) Les nouvelles
sources rendent possible la fabrication d'ions lourds fortement
chargés. Nous nous sommes intéressés à l'étude de la structure
hyperfine des ions lithiumoïdes. Cela nous permet d'examiner les
problèmes relativistes à plusieurs corps et la partie magnétique des
corrections d'Electrodynamique Quantique (QED). Dans les ions lourds,
ces dernières sont de l'ordre de quelques pour-cents par rapport à
l'énergie totale de la transition hyperfine. Nous avons également
évalué l'effet de Bohr-Weisskopf lié à la distribution du moment
magnétique dans le noyau. Nous avons calculé puis comparé ces
différentes contributions en incluant les corrections radiatives
(polarisation du vide et self-énergie) ainsi que l'influence du
continuum négatif. 2) Un atome exotique est un atome dans lequel un
électron du cortège est remplacé par une particule de même charge :
$\mu^(-)$, $\pi^(-)$, $\bar(p)$\ldots Des expériences récentes ont
permis de gagner trois ordres de grandeur en précision et en
résolution. Nous avons voulu améliorer la précision des calculs
d'énergies de transitions nécessaires à la calibration et à
l'interprétation dans deux cas : la mesure de paramètres de
l'interaction forte dans l'hydrogène anti-protonique ($\bar(p)$H) et
la détermination de la masse du pion grâce à l'azote pionique
($\pi$N). Nos calculs prennent en compte la structure hyperfine et le
volume de la distribution de charge de la particule. Nous avons
amélioré le calcul de la polarisation du vide qui ne peut plus être
traitée au premier ordre de la théorie des perturbations dans le cas
des atomes exotiques. Pour les atomes anti-protoniques, nous avons
également ajouté la correction du g-2. Elle provient du caractère
composite de l'anti-proton qui de ce fait possède un rapport
gyromagnétique g $\approx$ -5.5856 .
Styles APA, Harvard, Vancouver, ISO, etc.
28

Allart, Emilie. « Abstractions de différences exactes de réseaux de réactions : améliorer la précision de prédiction de changements de systèmes biologiques ». Thesis, Lille, 2021. http://www.theses.fr/2021LILUI013.

Texte intégral
Résumé :
Des prédictions de changements pour des réseaux de réactions avec information cinétique partielle peuvent être obtenues par raisonnement qualitatif avec l'interprétation abstraite. Un problème de prédiction classique en biologie systémique est de savoir quels knock-outs de gènes peuvent, ou doivent, augmenter le flux de sortie d'une espèce ciblée à l'état stationnaire. Répondre à une telle question pour un réseau de réactions donné demande de raisonner avec des différences abstraites telles que "augmenter'' et "diminuer''. Une tâche fondamentale pour des prédictions de changements a été présenté par Niehren, Versari, John, Coutte, et Jacques (2016). Il s'agit du problème de calcul de l'abstraction de différences d'un ensemble de solutions positives d'un système d'équations linéaires avec des contraintes de différences non linéaires.Précédemment, des algorithmes de surapproximation pour cette tâche ont été proposé en utilisant différentes heuristiques, par exemple basées sur la réécriture des équations linéaires. Dans cette thèse, nous présentons les premiers algorithmes exacts pouvant résoudre cette tâche pour les deux abstractions de différences utilisées dans la littérature.En guise de première contribution, nous montrons pour un système d'équations linéaires, comment caractériser l'abstraction booléenne de l'ensemble de ces solutions positives. Cette abstraction associe 1 à n'importe quel réel strictement positif, et 0 à 0. La caractérisation est donnée par l'ensemble des solutions booléennes d'un autre système d'équations, qui est obtenu à partir des modes élémentaires. Les solutions booléennes de ce système caractéristique peuvent être calculées en pratique à l'aide de la programmation par contraintes sur les domaines finis. Nous pensons que ce résultat est intéressant pour l'analyse de programmes fonctionnels avec arithmétiques linéaires.Comme seconde contribution, nous présentons deux algorithmes qui calculent, pour un système d'équations linéaires et de contraintes à différences non linéaires donné, l'abstraction de différences en Delta_3 et respectivement en Delta_6.Ces algorithmes s'appuient sur la caractérisation des abstractions booléennes pour les systèmes d'équations linéaires issue de la première contribution. Le lien entre ces abstractions est défini en logique du premier-ordre, tel que l'abstraction peut être calculée par la programmation par contraintes sur les domaines finis également.Nous avons implémenté nos algorithmes exacts et les avons appliqués à la prédiction de knock-outs de gènes qui peuvent mener à une surproduction de leucine dans B.~Subtilis, nécessaire pour la surproduction de surfactine en biotechnologie.Le calcul des prédictions précises avec l'algorithme exact peut tout de même prendre plusieurs heures. Pour cela, nous présentons aussi une nouvelle heuristique, basée sur les modes élémentaires, pour le calcul de l'abstraction de différences. Celle-ci fournit un bon compromis entre précision et efficacité en temps
Change predictions for reaction networks with partial kinetic information can be obtained by qualitative reasoning with abstract interpretation. A typical change prediction problem in systems biology is which gene knockouts may, or must, increase the outflow of a target species at a steady state. Answering such questions for reaction networks requires reasoning about abstract differences such as "increases'' and "decreases''. A task fundamental for change predictions was introduced by Niehren, Versari, John, Coutte, et Jacques (2016). It is the problem to compute for a given system of linear equations with nonlinear difference constraints, the difference abstraction of the set of its positive solutions. Previous approaches provided overapproximation algorithms for this task based on various heuristics, for instance by rewriting the linear equations. In this thesis, we present the first algorithms that can solve this task exactly for the two difference abstractions used in the literature so far. As a first contribution, we show how to characterize for a linear equation system the boolean abstraction of its set of positive solutions. This abstraction maps any strictly positive real numbers to 1 and 0 to 0. The characterization is given by the set of boolean solutions for another equation system, that we compute based on elementary modes. The boolean solutions of the characterizing equation system can then be computed based on finite domain constraint programming in practice. We believe that this result is relevant for the analysis of functional programs with linear arithmetics. As a second contribution, we present two algorithms that compute for a given system of linear equations and nonlinear difference constraints, the exact difference abstraction into Delta_3 and Delta_6 respectively. These algorithms rely on the characterization of boolean abstractions for linear equation systems from the first contribution. The bridge between these abstractions is defined in first-order logic. In this way, the difference abstraction can be computed by finite set constraint programming too. We implemented our exact algorithms and applied them to predicting gene knockouts that may lead to leucine overproduction in B.~Subtilis, as needed for surfactin overproduction in biotechnology. Computing the precise predictions with the exact algorithm may take several hours though. Therefore, we also present a new heuristics for computing difference abstraction based on elementary modes, that provides a good compromise between precision and time efficiency
Styles APA, Harvard, Vancouver, ISO, etc.
29

Chotin-Avot, Roselyne. « Architectures matérielles pour l'arithmétique stochastique discrète ». Paris 6, 2003. http://hal.upmc.fr/tel-01267458.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Tan, Pauline. « Précision de modèle et efficacité algorithmique : exemples du traitement de l'occultation en stéréovision binoculaire et de l'accélération de deux algorithmes en optimisation convexe ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX092/document.

Texte intégral
Résumé :
Le présent manuscrit est composé de deux parties relativement indépendantes.La première partie est consacrée au problème de la stéréovision binoculaire, et plus particulièrement au traitement de l'occultation. En partant d'une analyse de ce phénomène, nous en déduisons un modèle de régularité qui inclut une contrainte convexe de visibilité. La fonctionnelle d'énergie qui en résulte est minimisée par relaxation convexe. Les zones occultées sont alors détectées grâce à la pente horizontale de la carte de disparité avant d'être densifiées.Une autre méthode gérant l'occultation est la méthode des graph cuts proposée par Kolmogorov et Zabih. L'efficacité de cette méthode justifie son adaptation à deux problèmes auxiliaires rencontrés en stéréovision, qui sont la densification de cartes éparses et le raffinement subpixellique de cartes pixelliques.La seconde partie de ce manuscrit traite de manière plus générale de deux algorithmes d'optimisation convexe, pour lequels deux variantes accélérées sont proposées. Le premier est la méthode des directions alternées (ADMM). On montre qu'un léger relâchement de contraintes dans les paramètres de cette méthode permet d'obtenir un taux de convergence théorique plus intéressant.Le second est un algorithme de descentes proximales alternées, qui permet de paralléliser la résolution approchée du problème Rudin-Osher-Fatemi (ROF) de débruitage pur dans le cas des images couleurs. Une accélération de type FISTA est également proposée
This thesis is splitted into two relatively independant parts. The first part is devoted to the binocular stereovision problem, specifically to the occlusion handling. An analysis of this phenomena leads to a regularity model which includes a convex visibility constraint. The resulting energy functional is minimized by convex relaxation. The occluded areas are then detected thanks to the horizontal slope of the disparity map and densified. Another method with occlusion handling was proposed by Kolmogorov and Zabih. Because of its efficiency, we adapted it to two auxiliary problems encountered in stereovision, namely the densification of sparse disparity maps and the subpixel refinement of pixel-accurate maps.The second part of this thesis studies two convex optimization algorithms, for which an acceleration is proposed. The first one is the Alternating Direction Method of Multipliers (ADMM). A slight relaxation in the parameter choice is shown to enhance the convergence rate. The second one is an alternating proximal descent algorithm, which allows a parallel approximate resolution of the Rudin-Osher-Fatemi (ROF) pure denoising model, in color-image case. A FISTA-like acceleration is also proposed
Styles APA, Harvard, Vancouver, ISO, etc.
31

Laizet, Sylvain. « Développement d'un code de calcul combinant des schémas de haute précision avec une méthode de frontières immergées pour la simulation des mouvements tourbillonnaires en aval d'un bord de fuite ». Poitiers, 2005. http://www.theses.fr/2005POIT2339.

Texte intégral
Résumé :
La réalisation de simulations des mouvements tourbillonnaires en aval d'un bord de fuite reste une tâche difficile en mécanique des fluides. Des développements numériques ont été réalisés à partir d'un code de calcul résolvant les équations de Navier-Stokes incompressibles à l'aide de schémas aux différences finies de haute précision. L'originalité de l'approche numérique réside dans l'utilisation d'une méthode spectrale pour la résolution de l'équation de Poisson qui combinée à une méthode de frontières immergées permet de simuler des écoulements en présence de parois. Un effort particulier a été fait pour l'amélioration de la résolution de l'équation de Poisson afin d'utiliser un maillage inhomogène et une grille décalée pour le champ de pression. Deux écoulements de couche de mélange avec la prise en compte des parois ont été simulés avec un bord de fuite épais puis mince dans le but de déterminer l'influence de la géométrie de la plaque séparatrice sur la dynamique de l'écoulement
To carry out simulations of the vortex dynamics behind a trailing edge remains a difficult task in fluid mechanics. Numerical development has been performed with a computer code which solves the incompressible Navier-Stokes equations with high order compact finite difference schemes on a Cartesian grid. The specificity of this code is that the Poisson equation is solved in the spectral space with the modified spectral formalism. This code can be combined with an immersed boundary method in order to simulate flows with complex geometry. A particular work was made to improve the resolution of the Poisson equation in order to use a stretched mesh and a staggered grid for the pressure. Two mixing layers flows with a blunt and a bevelled trailing edge were performed in order to determinate the influence of the separating plate's shape on the vortex dynamics
Styles APA, Harvard, Vancouver, ISO, etc.
32

Peou, Kenny. « Computing Tools for HPDA : a Cache-Oblivious and SIMD Approach ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG105.

Texte intégral
Résumé :
Ce travail présente trois contributions aux domaines de la vectorisation des CPU et de l'apprentissage automatique. La première contribution est un algorithme pour calculer une moyenne avec des valeurs en virgule flottante de demi-précision. Dans ce travail réalisé avec un support matériel de demi-précision limité, nous utilisons une bibliothèque logicielle existante pour émuler le calcul de demi-précision. Cela nous permet de comparer la précision numérique de notre algorithme à celle de divers algorithmes couramment utilisés. Enfin, nous effectuons des tests de performance d'exécution en utilisant des valeurs à virgule flottante simples et doubles afin d'anticiper les gains potentiels de l'application de la vectorisation du CPU aux valeurs de demi-précision. Dans l'ensemble, nous constatons que notre algorithme présente des performances numériques légèrement inférieures dans le meilleur des cas en échange de performances numériques nettement supérieures dans le pire des cas, tout en offrant des performances d'exécution similaires à celles d'autres algorithmes. La deuxième contribution est une bibliothèque de calcul en virgule fixe conçue spécifiquement pour la vectorisation du CPU. Les bibliothèques existantes ne reposent pas sur l'auto-vectorisation du compilateur, qui ne parvient pas à vectoriser les opérations arithmétiques de multiplication et de division. De plus, ces deux opérations nécessitent des opérations de cast qui réduisent la vectorisabilité et ont un réel coût de calcul. Pour remédier à ce problème, nous présentons un format de stockage de données en virgule fixe qui ne nécessite aucune opération de cast pour effectuer des opérations arithmétiques. De plus, nous présentons un certain nombre de benchmarks comparant notre implémentation aux bibliothèques existantes et nous présentons la vitesse de vectorisation du CPU sur un certain nombre d'architectures. Dans l'ensemble, nous constatons que notre format en virgule fixe permet des performances d'exécution égales ou supérieures à toutes les bibliothèques comparées. La dernière contribution est un moteur d'inférence de réseau neuronal conçu pour réaliser des expériences en variant les types de données numériques utilisées dans le calcul d'inférence. Ce moteur d'inférence permet un contrôle spécifique à la couche des types de données utilisés pour effectuer l'inférence. Nous utilisons ce niveau de contrôle pour réaliser des expériences visant à déterminer l'agressivité avec laquelle il est possible de réduire la précision numérique utilisée dans l'inférence du réseau neuronal PVANet. Au final, nous déterminons qu'une combinaison des types de données standardisés float16 et bfoat16 est suffisante pour l'ensemble de l'inférence
This work presents three contributions to the fields of CPU vectorization and machine learning. The first contribution is an algorithm for computing an average with half precision floating point values. In this work performed with limited half precision hardware support, we use an existing software library to emulate half precision computation. This allows us to compare the numerical precision of our algorithm to various commonly used algorithms. Finally, we perform runtime performance benchmarks using single and double floating point values in order to anticipate the potential gains from applying CPU vectorization to half precision values. Overall, we find that our algorithm has slightly worse best-case numerical performance in exchange for significantly better worst-case numerical performance, all while providing similar runtime performance to other algorithms. The second contribution is a fixed-point computational library designed specifically for CPU vectorization. Existing libraries fail rely on compiler auto-vectorization, which fail to vectorize arithmetic multiplication and division operations. In addition, these two operations require cast operations which reduce vectorizability and have a real computational cost. To allevieate this, we present a fixed-point data storage format that does not require any cast operations to perform arithmetic operations. In addition, we present a number of benchmarks comparing our implementation to existing libraries and present the CPU vectorization speedup on a number of architectures. Overall, we find that our fixed point format allows runtime performance equal to or better than all compared libraries. The final contribution is a neural network inference engine designed to perform experiments varying the numerical datatypes used in the inference computation. This inference engine allows layer-specific control of which data types are used to perform inference. We use this level of control to perform experiments to determine how aggressively it is possible to reduce the numerical precision used in inferring the PVANet neural network. In the end, we determine that a combination of the standardized float16 and bfloat16 data types is sufficient for the entire inference
Styles APA, Harvard, Vancouver, ISO, etc.
33

Barotto, Béatrice. « Introduction de paramètres stochastiques pour améliorer l'estimation des trajectoires d'un système dynamique par une méthode de moindres carrés : application à la détermination de l'orbite d'un satellite avec une précision centimétrique ». Toulouse 3, 1995. http://www.theses.fr/1995TOU30196.

Texte intégral
Résumé :
En presence d'imperfections du modele dynamique, les methodes d'estimation des trajectoires du systeme dynamique, par resolution d'un probleme de moindres carres non lineaire de grande taille, ne permettent pas de profiter de l'extreme precision des mesures faites sur l'etat du systeme. Afin d'estimer plus finement la trajectoire du systeme dynamique, le traitement des erreurs de modeles dans l'algorithme de filtrage-lissage doit etre envisage. Ces erreurs sont prises en compte sous la forme de processus colores dans les equations d'evolution de la dynamique et dans les equations de mesure. Certains parametres des modeles dynamique et de mesure sont alors supposes stochastiques. Afin de resoudre cette classe de probleme de moindres carres non lineaire, une methode de filtrage-lissage a du etre developpee. Elle correspond a une approche de gauss-newton appliquee a un probleme de moindres carres non lineaire qui est linearise au voisinage d'une bonne estimation de la trajectoire du systeme dynamique. Cette methode est developpee dans une formulation racine carree de givens afin d'eviter des problemes d'ordre numerique et inclut le traitement des parametres stochastiques. Cette methode peut s'appliquer a des problemes d'origines diverses. Elle a ete appliquee a la determination de l'orbite du satellite franco-americain d'oceanographie topex/poseidon lance en 1992. En 1995, les methodes classiques permettent d'obtenir une precision de l'ordre de trois centimetres dans la direction radiale a partir des mesures doris et laser. La nouvelle methode permet d'obtenir des orbites de meilleure precision en introduisant une acceleration empirique stochastique agissant sur le satellite. Cette methode a aussi l'avantage d'etre independante de l'altitude du satellite et de traiter n'importe quel type de mesures
Styles APA, Harvard, Vancouver, ISO, etc.
34

Fontbonne, Cathy. « Acquisition multiparamétrique de signaux de décroissance radioactive pour la correction des défauts instrumentaux : application à la mesure de la durée de vie du 19Ne ». Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC204/document.

Texte intégral
Résumé :
L’objectif de cette thèse est de proposer une méthode de mesure précise d’une période radioactive de l’ordre de quelques secondes. L’acquisition numérique temps réel FASTER permet d’accéder aux caractéristiques physiques du signal induit par la détection de chaque désintégration lors de la décroissance radioactive. La sélection des données de comptage peut se faire par une analyse optimisée post-expérience. Ainsi, après avoir établi les facteurs d’influence de la mesure (variation d’empilements, de gain des tubes photomultiplicateurs, de la ligne de base électronique), il est possible, a posteriori, de calculer leur impact sur l’estimation de la période radioactive, et de choisir un seuil en énergie déposée, ainsi qu’un temps mort qui minimisent leurs influences. Cette thèse propose, par ailleurs, une méthode pour mesurer, puis compenser les variations de ses grandeurs. Cette méthode a été appliquée pour l’estimation de la période radioactive du 19Ne avec une incertitude relative de 1,2.10-4 : T1/2=17,2569(21) s
The aim of this thesis is to propose a method for precise half-life measurements adapted to nuclides with half-lives of a few seconds. The FASTER real-time digital acquisition system gives access to the physical characteristics of the signal induced by the detection of each decay during the counting period following beam implantation. The selection of the counting data can be carried out by an optimized post-experimental offline analysis. Thus, after establishing the influence factors impacting the measurement (pile up, gain and base line fluctuations), we are able to estimate, a posteriori, their impact on the half-life estimation. This way, we can choose the deposited energy threshold and dead time in order to minimize their effect. This thesis also proposes a method for measuring and then compensating for influence factors variations. This method was applied to estimate the 19Ne half-life with a relative uncertainty of 1.2 10-4 leading to T1 / 2 = 17.2569 (21) s. This is the most precise measurement to date for this isotope
Styles APA, Harvard, Vancouver, ISO, etc.
35

Lopes, Quintas Christian Louis. « Système ultra précis de distribution du temps dans le domaine de la picoseconde ». Paris, CNAM, 2001. http://www.theses.fr/2001CNAM0387.

Texte intégral
Résumé :
Afin de permettre le fonctionnement et l'instrumentation de grands dispositifs de physique (lasers de fusion thermonucleaire, accélerateurs de particules, télescopes à neutrions) un système de synchronisation qui permet a des équipements délocalisés et éloignés les uns des autres de plusieurs centaines de mètres de distribuer des impulsions synchrones entre elles avec une précision de 1 PS RMS PRES a été étudié et réalisé. L'analyse des dispositifs existants a montré que leurs performances étaient insuffisantes vis-a-vis des performances à atteindre. Il a donc été nécessaire d'étudier et de réaliser un système spécifique. Une pré-étude a débouché sur la définition d'une architecture basée sur la distribution d'un signal d'horloge d'un équipement maître vers des équipements esclaves à l'aide de fibres optiques. Il s'est avéré nécessaire de réaliser une liaison bidirectionnelle monofibre afin de mesurer les temps de transit entre maître et esclaves. Cette liaison bidirectionnelle a ensuite été améliorée afin que les temps de transit entre maître et esclaves puissent être mesures avec une précision de quelques picosecondes. Une compensation des différents temps de transit a ensuite été effectuée par les équipements esclaves qui intègrent un générateur de retard constitue de deux sections : un générateur de retard numérique et un générateur analogique. La combinaison des deux permet d'obtenir a la fois une grande dynamique (de 100 ns a 100s) et excellente résolution (0,4 PS). Différentes corrections sont appliquées pour, d'une part, compenser les non-linéarités du générateur de retard analogique et, d'autre part, garantir les performances du système sur une plage de température de 15\c / 35\c. La précision atteinte par le système
Styles APA, Harvard, Vancouver, ISO, etc.
36

Beaudoin, Normand. « Méthode mathématique et numérique de haute précision pour le calcul des transformées de Fourier, intégrales, dérivées et polynômes splines de tout ordre ; Déconvolution par transformée de Fourier et spectroscopie photoacoustique à résolution temporelle ». Thèse, Université du Québec à Trois-Rivières, 1999. http://depot-e.uqtr.ca/6708/1/000659516.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Chohra, Chemseddine. « Towards reproducible, accurately rounded and efficient BLAS ». Thesis, Perpignan, 2017. http://www.theses.fr/2017PERP0065.

Texte intégral
Résumé :
Le problème de non-reproductibilté numérique surgit dans les calculs parallèles principalement à cause de la non-associativité de l’addition flottante. Les environnements parallèles changent dynamiquement l’ordre des opérations. Par conséquent, les résultats numériques peuvent changer d’une exécution à une autre. Nous garantissons la reproductibilité en étendant autantque possible l’arrondi correct à des séquences de calculs plus importantes que les opérations arithmétique exigées par le standard IEEE-754. Nous introduisons RARE-BLAS une implémentation des BLAS qui est reproductible et précise en utilisant les transformations sans erreur et les algorithmes de sommation appropriés. Nous présentons dans cette thèsedes solutions pour le premier (asum, dot and nrm2) et le deuxième (gemv and trsv) niveaux des BLAS. Nous développons une implémentation de ces solutions qui utilise les interfaces de programmation parallèles (OpenMP et MPI) et les jeu d’instructions vectorielles. Nous comparons l’efficacité de RARE-BLAS à une bibliothèque optimisé (Intel MKL) et à des solutionsreproductibles existantes
Numerical reproducibility failures rise in parallel computation because floating-point summation is non-associative. Massively parallel systems dynamically modify the order of floating-point operations. Hence, numerical results might change from one run to another. We propose to ensure reproducibility by extending as far as possible the IEEE-754 correct rounding property to larger computing sequences. We introduce RARE-BLAS a reproducible and accurate BLAS library that benefits from recent accurate and efficient summation algorithms. Solutions for level 1 (asum, dot and nrm2) and level 2 (gemv and trsv) routines are designed. Implementations relying on parallel programming API (OpenMP, MPI) and SIMD extensions areproposed. Their efficiency is studied compared to optimized library (Intel MKL) and other existing reproducible algorithms
Styles APA, Harvard, Vancouver, ISO, etc.
38

Mezzarobba, Marc. « Autour de l'évaluation numérique des fonctions D-finies ». Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00663017.

Texte intégral
Résumé :
Les fonctions D-finies (ou holonomes) à une variable sont les solutions d'équations différentielles linéaires à coefficients polynomiaux. En calcul formel, il s'est avéré fructueux depuis une vingtaine d'années d'en développer un traitement algorithmique unifié. Cette thèse s'inscrit dans cette optique, et s'intéresse à l'évaluation numérique des fonctions D-finies ainsi qu'à quelques problèmes apparentés. Elle explore trois grandes directions. La première concerne la majoration des coefficients des développements en série de fonctions D-finies. On aboutit à un algorithme de calcul automatique de majorants accompagné d'un résultat de finesse des bornes obtenues. Une seconde direction est la mise en pratique de l'algorithme " bit burst " de Chudnovsky et Chudnovsky pour le prolongement analytique numérique à précision arbitraire des fonctions D-finies. Son implémentation est l'occasion de diverses améliorations techniques. Ici comme pour le calcul de bornes, on s'attache par ailleurs à couvrir le cas des points singuliers réguliers des équations différentielles. Enfin, la dernière partie de la thèse développe une méthode pour calculer une approximation polynomiale de degré imposé d'une fonction D-finie sur un intervalle, via l'étude des développements en série de Tchebycheff de ces fonctions. Toutes les questions sont abordées avec un triple objectif de rigueur (résultats numériques garantis), de généralité (traiter toute la classe des fonctions D-finies) et d'efficacité. Pratiquement tous les algorithmes étudiés s'accompagnent d'implémentations disponibles publiquement.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Bizouard, Vincent. « Calculs de précision dans un modèle supersymétrique non minimal ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAY075/document.

Texte intégral
Résumé :
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation
Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes
Styles APA, Harvard, Vancouver, ISO, etc.
40

Rico, Fabien. « Fonctions élémentaires : algorithmes et précisions ». Montpellier 2, 2001. http://www.theses.fr/2001MON20052.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
41

Tisserand, Arnaud. « Étude et conception d'opérateurs arithmétiques ». Habilitation à diriger des recherches, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00502465.

Texte intégral
Résumé :
Ce travail présente quelques contributions en arithmétique des ordinateurs pour le matériel et le logiciel. L'arithmétique des ordinateurs est la branche de l'informatique qui traite des représentations des nombres, des algorithmes pour effectuer les calculs de base en machine, la validation de la qualité des calculs, l'analyse de l'efficacité des calculs et des outils d'aide à la conception de systèmes de calcul arithmétique. Nos travaux comportent des liens avec les domaines de la conception de circuits intégrés numériques, de l'architecture des machines et du développement logiciel de bibliothèques de calcul. Les principaux domaines d'application de nos travaux sont: le calcul numérique dans les systèmes embarqués, la cryptographie et la sécurité numérique, le traitement numérique du signal et des images et de façon plus limitée les dispositifs numériques de contrôle-commande en automatique. Le mémoire résume les travaux de recherche effectués, seul et en collaboration, depuis octobre 1997. Ces travaux portent sur: l'arithmétique en ligne, des architectures reconfigurables, des méthodes d'évaluation de fonctions à base de tables, la division pour circuits asynchrones, des opérateurs arithmétiques spécifiques pour FPGA, des variantes de la multiplication comme la multiplication par des constantes ou tronquée, des bibliothèques flottantes pour processeurs entiers, la division par des constantes, l'évaluation de fonctions par approximation polynomiale, des opérateurs arithmétiques pour la basse consommation d'énergie, la modélisation et l'évaluation de la consommation d'opérateurs arithmétiques, des opérateurs arithmétiques pour la cryptographie (corps finis et sécurisation contre des attaques physiques), la génération de diviseurs matériels, la bibliothèque logicielle PACE pour la cryptographie, la consommation d'énergie dans les processeurs graphiques, la maîtrise des erreurs d'arrondi dans les outils de CAO, la génération de nombres vraiment aléatoires et l'arithmétique par estimation.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Bocco, Andrea. « A variable precision hardware acceleration for scientific computing ». Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI065.

Texte intégral
Résumé :
La plupart des unités matérielles arithmétiques à virgule flottante (en anglais Floating-Point, FP) prennent en charge les formats et les opérations spécifiés dans le standard IEEE 754. Ces formats ont une longueur en bits fixe et sont définis sur 16, 32, 64 et 128 bits. Cependant, certaines applications, par exemple les solveurs de systèmes linéaires, ou encore la géométrie computationnelle, pourraient bénéficier de formats différents pour représenter les flottants sur différentes tailles, avec différents compromis entre les champs des exposant et mantisse. La classe des formats de précision variable (en anglais Variable Precision, VP) répond à ces exigences. L'objectif de cette recherche est de proposer un système de calcul VP capable d'augmenter la précision ou l'efficacité de calcul des problèmes en offrant une granularité plus fine des opérations FP. Ce travail propose un système de calcul FP à VP basé sur trois couches de calcul. La couche externe prend en charge les formats IEEE existants pour les variables d'entrée et de sortie. La couche interne utilise des registres de longueur variable pour les opérations de multiplication-addition à haute précision. Enfin, une couche intermédiaire prend en charge le chargement et le stockage des résultats intermédiaires dans la mémoire cache sans perte de précision, avec un format VP réglable dynamiquement. Le support des formats différents entre la représentation interne et le stockage en mémoire proche permets d'envisager des "grands vecteurs" en VP avec la possibilité d’avoir une haute précision de calcul dans la couche interne. L'unité à VP exploite le format FP UNUM de type I, en proposant des solutions pour remédier à certains de ses difficultés intrinsèques, telles que la latence variable de l'opération interne et l'empreinte mémoire variable des variables intermédiaires. Contrairement aux formats définis par IEEE 754, dans l'UNUM de type I, la taille d'un nombre est stockée dans la représentation elle-même. Ce travail propose une architecture de jeu d'instructions pour programmer le système de calcul VP qui suit la structure des couches de calcul susmentionnée. L'objectif de cette ISA est d'établir une séparation claire entre le format de la mémoire et celui à l'intérieur du coprocesseur. Avec cette ISA, le programmeur peut écrire des programmes VP de telle sorte que les instructions assembleur générées soient décorrélées de la taille et des formats des variables du programme. Cette décorrélation se fait en stockant les informations sur la taille, la précision et le format des variables du programme dans des registres d'état dédiés, à l'intérieur de l'unité VP. Ces registres d’état sont utilisés par une unité de chargement et de stockage (Load and Store Unit, LSU), étroitement couplée à l'unité de calcul VP, qui prend en charge la conversion des données entre les couches de calcul
Most of the Floating-Point (FP) hardware units support the formats and the operations specified in the IEEE 754 standard. These formats have fixed bit-length. They are defined on 16, 32, 64, and 128 bits. However, some applications, such as linear system solvers and computational geometry, benefit from different formats which can express FP numbers on different sizes and different tradeoffs among the exponent and the mantissa fields. The class of Variable Precision (VP) formats meets these requirements. This research proposes a VP FP computing system based on three computation layers. The external layer supports legacy IEEE formats for input and output variables. The internal layer uses variable-length internal registers for inner loop multiply-add. Finally, an intermediate layer supports loads and stores of intermediate results to cache memory without losing precision, with a dynamically adjustable VP format. The VP unit exploits the UNUM type I FP format and proposes solutions to address some of its pitfalls, such as the variable latency of the internal operation and the variable memory footprint of the intermediate variables. Unlike IEEE 754, in UNUM type I the size of a number is stored within its representation. The unit implements a fully pipelined architecture, and it supports up to 512 bits of precision, internally and in memory, for both interval and scalar computing. The user can configure the storage format and the internal computing precision at 8-bit and 64-bit granularity This system is integrated as a RISC-V coprocessor. The system has been prototyped on an FPGA (Field-Programmable Gate Array) platform and also synthesized for a 28nm FDSOI process technology. The respective working frequencies of FPGA and ASIC implementations are 50MHz and 600MHz. Synthesis results show that the estimated chip area is 1.5mm2, and the estimated power consumption is 95mW. The experiments emulated in an FPGA environment show that the latency and the computation accuracy of this system scale linearly with the memory format length set by the user. In cases where legacy IEEE-754 formats do not converge, this architecture can achieve up to 130 decimal digits of precision, increasing the chances of obtaining output data with an accuracy similar to that of the input data. This high accuracy opens the possibility to use direct methods, which are more sensitive to computational error, instead of iterative methods, which always converge. However, their latency is ten times higher than the direct ones. Compared to low precision FP formats, in iterative methods, the usage of high precision VP formats helps to drastically reduce the number of iterations required by the iterative algorithm to converge, reducing the application latency of up to 50%. Compared with the MPFR software library, the proposed unit achieves speedups between 3.5x and 18x, with comparable accuracy
Styles APA, Harvard, Vancouver, ISO, etc.
43

Hilico, Laurent. « Mesures de fréquences et calculs de haute précision en physique atomique et moléculaire ». Habilitation à diriger des recherches, Université d'Evry-Val d'Essonne, 2002. http://tel.archives-ouvertes.fr/tel-00001922.

Texte intégral
Résumé :
La premiere partie du manuscript concerne l'etude des performances metrologiques d'un etalon secondaire de frequence utilisant les transitions a deux photons du rubidium. La mesure de la frequence absolue de cet etalon est decrite ainsi que ses applications a la spectroscopie de l'hydrogene atomique. La seconde partie concerne le calcul tres precis des niveaux d'energie et des fonctions d'onde de l'ion moeculaire H2+, ainsi que des resonances des especes exotiques ou l'electron est remplace par un muon ou un pion. A partir des fonctions d'onde, les probabilites de transition a deux photons entre niveaux vibrationnels de H2+ sont calculees. Un nouveau shema experimental pour deduire le rapport de la masse du proton a celle de l'electron par spectroscopie de H2+ est propose et discute. Enfin, une nouvelle methode de calcul du probleme coulombien a trois corps en deux dimensions est proposee et appliquee a l'helium.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Graillat, Stef. « Fiabilité des algorithmes numériques : pseudosolutions structurées et précisions ». Perpignan, 2005. http://www.theses.fr/2005PERP0674.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse portent sur la stabilité et la précision de certains algorithmes numériques. Les contributions de cette thèse se situent à quatre niveaux : 1) Amélioration de la précision : on propose un algorithme de Horner compensé qui calcule un résultat avec la même précision que si il avait été calculé par le schéma de Horner classique, mais avec une précision interne doublée. 2) Applications des pseudozéros : on propose des application de pseudozéros en calcul formel (primalité approchée) et en théorie du contrôle (rayon de stabilité et pseudoabscisses). 3) Prise en compte des perturbations réelles : on donne des formules calculables pour le conditionnement réel et l'erreur inverse réelle pour des problèmes de l'évaluation polynomiale et le calcul de racines. Nous montrons qu'il y a peu de différences entre le conditionnement réel et le conditionnement classique. Néanmoins, nous montrons que l'erreur inverse réelle peut être significativement plus grande que l'erreur inverse classique. 4) Perturbations matricielles structurées : nous étudions la notion de pseudospectre structuré pour les matrices Toeplitz, circulantes et Hankel. Nous montrons qu'il n'y a pas de différence entre le pseudospectre structuré et le pseudospectre classique. Nous étudions aussi des conditionnements pour les systèmes linéaires et l'inversion matricielle pour des structures dérivant d'algèbres de Lie et de Jordan. Nous étudions pour quelles sous-classes de ces structures il n'y a pas ou peu de différences entre les conditionnements structurés et non structurés
The result summarized in the document deal with the stability and accuracy of some numerical algorithms. The contributions of this work are divided into four levels : 1) Improvement of the accuracy : we prensent a compensated Horner scheme that computes a result as if computed in twice the working précision. 2) Applications of pseudozero set : we propose some applications of pseudozeros in computer algebra (approximate coprimeness) and in control theory (stability radius and pseudoabscissa). 3) Real perturbations : we give computable formulas for the real condition number and real backward error for the problem of polynomial evaluation and the computation of zeros. We show that there is little difference between the real and complex condition numbers. On the contrary, we show that the real backward error can be significantly larger than the complex one. 4) Structured matrix perturbation : we study the notion of structured pseudospectra for Toeplitz, Hankel and circulant matrices. We show for this structures there is no difference between the structured and the unstructured pseudospectra. We also study structured condition number for linear systems, inversions and distance to singularity for structures deriving from Lie and Jordan algebras. We show that under mild assumptions there is little or no difference between the structured and the unstructured condition numbers
Styles APA, Harvard, Vancouver, ISO, etc.
45

Gallois-Wong, Diane. « Formalisation en Coq des algorithmes de filtre numérique calculés en précision finie ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG016.

Texte intégral
Résumé :
Les filtres numériques sont utilisés dans de nombreux domaines, des télécommunications à l'aérospatiale. En pratique, ces filtres sont calculés sur machine en précision finie (virgule flottante ou virgule fixe). Les erreurs d'arrondi résultantes peuvent être particulièrement problématiques dans les systèmes embarqués. En effet, de fortes contraintes énergétiques et spatiales peuvent amener à privilégier l'efficacité des calculs, souvent au détriment de leur précision. De plus, les algorithmes de filtres enchaînent de nombreux calculs, au cours desquels les erreurs d'arrondi se propagent et risquent de s'accumuler. Comme certains domaines d'application sont critiques, j'analyse les erreurs d'arrondi dans les algorithmes de filtre en utilisant l'assistant de preuve Coq. Il s'agit d'un logiciel qui garantit formellement que cette analyse est correcte. Un premier objectif est d'obtenir des bornes certifiées sur la différence entre les valeurs produites par un filtre implémenté (calculé en précision finie) et par le filtre modèle initial (défini par des calculs théoriques exacts). Un second objectif est de garantir l'absence de comportement catastrophique comme un dépassement de capacité supérieur imprévu. Je définis en Coq les filtres numériques linéaires invariants dans le temps (LTI), considérés dans le domaine temporel. Je formalise une forme universelle appelée la SIF, à laquelle on peut ramener n'importe quel algorithme de filtre LTI sans modifier ses propriétés numériques. Je prouve ensuite le théorème des filtres d'erreurs et le théorème du Worst-Case Peak Gain, qui sont deux théorèmes essentiels à l'analyse numérique d'un filtre sous forme de SIF. Par ailleurs, cette analyse dépend aussi de l'algorithme de somme de produits utilisé dans l'implémentation. Je formalise donc plusieurs algorithmes de somme de produits offrant différents compromis entre précision du résultat et vitesse de calcul, dont un algorithme original correctement arrondi au plus proche. Je définis également en Coq les dépassements de capacité supérieurs modulaires, afin de prouver la correction d'un de ces algorithmes même en présence de tels dépassements de capacité
Digital filters have numerous applications, from telecommunications to aerospace. To be used in practice, a filter needs to be implemented using finite precision (floating- or fixed-point arithmetic). Resulting rounding errors may become especially problematic in embedded systems: tight time, space, and energy constraints mean that we often need to cut into the precision of computations, in order to improve their efficiency. Moreover, digital filter programs are strongly iterative: rounding errors may propagate and accumulate through many successive iterations. As some of the application domains are critical, I study rounding errors in digital filter algorithms using formal methods to provide stronger guaranties. More specifically, I use Coq, a proof assistant that ensures the correctness of this numerical behavior analysis. I aim at providing certified error bounds over the difference between outputs from an implemented filter (computed using finite precision) and from the original model filter (theoretically defined with exact operations). Another goal is to guarantee that no catastrophic behavior (such as unexpected overflows) will occur. Using Coq, I define linear time-invariant (LTI) digital filters in time domain. I formalize a universal form called SIF: any LTI filter algorithm may be expressed as a SIF while retaining its numerical behavior. I then prove the error filters theorem and the Worst-Case Peak Gain theorem. These two theorems allow us to analyze the numerical behavior of the filter described by a given SIF. This analysis also involves the sum-of-products algorithm used during the computation of the filter. Therefore, I formalize several sum-of-products algorithms, that offer various trade-offs between output precision and computation speed. This includes a new algorithm whose output is correctly rounded-to-nearest. I also formalize modular overflows, and prove that one of the previous sum-of-products algorithms remains correct even when such overflows are taken into account
Styles APA, Harvard, Vancouver, ISO, etc.
46

Marié, Simon. « Etude de la méthode Boltzmann sur Réseau pour les simulations en aéroacoustique ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00311293.

Texte intégral
Résumé :
Ce travail de thèse s'inscrit dans une problématique visant à étudier numériquement le bruit d'origine aérodynamique généré par les écoulements turbulents autour des véhicules en utilisant la méthode Boltzmann sur Réseau (LBM). Les objectifs de cette thèse sont l'étude des capacités aéroacoustiques de la LBM ainsi que l'élaboration d'un code de calcul tridimensionnel et parallèle.
Dans un premier temps, les élements historiques et théoriques de la LBM sont présentés ainsi que le développement permettant de passer de l'équation de Boltzmann aux équations de Navier-Stokes. La construction des modèles à vitesses discrètes est également décrite. Deux modèles basés sur des opérateurs de collision différents sont présentés : le modèle LBM-BGK et le modèle LBM-MRT. Pour l'étude des capacités aéroacoustiques de la LBM, une analyse de von Neumann est réalisée pour les modèles LBM-BGK et LBM-MRT ainsi que pour l'équation de Boltzmann à vitesse discrète (DVBE). Une comparaison avec les schémas Navier-Stokes d'ordre élevé est alors menée. Pour remédier aux instabilités numériques de la méthode Boltzmann sur Réseau intervenant lors de la propagation dans des directions particulières à M>0.1, des filtres sélectifs sont utilisés et leur effet sur la dissipation est étudié.
Dans un second temps, le code de calcul L-BEAM est présenté. La structure générale et les différentes techniques de calculs sont décrites. Un algorithme de transition de résolution est développé. La modélisation de la turbulence est abordée et le modèle de Meyers-Sagaut est implémenté dans le code. Enfin, des cas tests numériques sont utilisés pour valider le code et la simulation d'un écoulement turbulent complexe est réalisée.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Romera, Thomas. « Adéquation algorithme architecture pour flot optique sur GPU embarqué ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS450.

Texte intégral
Résumé :
Cette thèse porte sur l'optimisation et l'implémentation efficace d'algorithmes d'estimation du mouvement des pixels (flot optique) sur des processeurs graphiques (GPU) embarqués. Deux algorithmes itératifs ont été étudiés : la méthode de Variation Totale - L1 (TV-L1) et la méthode de Horn-Schunck. L’objectif est d’obtenir un traitement temps réel (moins de 40 ms par images) sur des plateformes embarquées à faible consommation énergétique, tout en gardant une résolution image et une qualité d’estimation du flot acceptable pour les applications visées. Différents niveaux de stratégies d'optimisation ont été explorés. Des transformations algorithmiques de haut niveau, telles que la fusion d'opérateurs et le pipeline d'opérateurs, ont été mises en œuvre pour maximiser la réutilisation des données et améliorer la localité spatiale/temporelle. De plus, des optimisations bas niveau spécifiques aux GPU, notamment l'utilisation d'instructions et de nombres vectoriels, ainsi qu'une gestion efficace de l'accès à la mémoire, ont été intégrées. L'impact de la représentation des nombres en virgule flottante (simple précision par rapport à demi-précision) a également été étudié. Les implémentations ont été évaluées sur les plateformes embarquées Nvidia Jetson Xavier, TX2 et Nano en termes de temps d'exécution, de consommation énergétique et de précision du flot optique. Notamment, la méthode TV-L1 présente une complexité et une intensité de calcul plus élevées par rapport à Horn-Schunck. Les versions les plus rapides de ces algorithmes atteignent ainsi un temps de traitement de 0,21 nanosecondes par pixel par itération en demi-précision sur la plate-forme Xavier. Cela représente une réduction du temps d'exécution de 22x par rapport aux versions CPU efficaces et parallèles. De plus, la consommation d'énergie est réduite d'un facteur x5,3. Parmi les cartes testées, la plate-forme embarquée Xavier, à la fois la plus puissante et la plus récente, offre systématiquement les meilleurs résultats en termes de vitesse et d'efficacité énergétique. La fusion d'opérateurs et le pipelining se sont avérés essentiels pour améliorer les performances sur GPU en favorisant la réutilisation des données. Cette réutilisation des données est rendue possible grâce à la mémoire Shared des GPU, une petite mémoire d'accès rapide permettant le partage de données entre les threads du même bloc de threads GPU. Bien que la fusion de plusieurs itérations apporte des gains de performance, elle est limitée par la taille de la mémoire Shared, nécessitant des compromis entre l'utilisation des ressources et la vitesse. L'utilisation de nombres en demi-précision accélère les algorithmes itératifs et permet d'obtenir une meilleure précision du flot optique dans le même laps de temps par rapport aux versions en simple-précision. Les implémentations en demi-précision convergent plus rapidement en raison de l'augmentation du nombre d'itérations réalisables dans un délai donné. Plus précisément, l'utilisation de nombres en demi-précision sur la meilleure architecture GPU accélère l'exécution jusqu'à 2,2x pour TV-L1 et 3,7x pour Horn-Schunck. Ces travaux soulignent l'importance des optimisations spécifiques aux GPU pour les algorithmes de vision par ordinateur, ainsi que l'utilisation et l'étude des nombres à virgule flottante de précision réduite. Ils ouvrent la voie à des améliorations futures grâce à des différentes transformations algorithmiques, à des formats numériques différents et à des architectures matérielles nouvelles. Cette approche peut également être étendue à d'autres familles d'algorithmes itératifs
This thesis focus on the optimization and efficient implementation of pixel motion (optical flow) estimation algorithms on embedded graphics processing units (GPUs). Two iterative algorithms have been studied: the Total Variation - L1 (TV-L1) method and the Horn-Schunck method. The primary objective of this work is to achieve real-time processing, with a target frame processing time of less than 40 milliseconds, on low-power platforms, while maintaining acceptable image resolution and flow estimation quality for the intended applications. Various levels of optimization strategies have been explored. High-level algorithmic transformations, such as operator fusion and operator pipelining, have been implemented to maximize data reuse and enhance spatial/temporal locality. Additionally, GPU-specific low-level optimizations, including the utilization of vector instructions and numbers, as well as efficient memory access management, have been incorporated. The impact of floating-point number representation (single-precision versus half-precision) has also been investigated. The implementations have been assessed on Nvidia's Jetson Xavier, TX2, and Nano embedded platforms in terms of execution time, power consumption, and optical flow accuracy. Notably, the TV-L1 method exhibits higher complexity and computational intensity compared to Horn-Schunck. The fastest versions of these algorithms achieve a processing rate of 0.21 nanoseconds per pixel per iteration in half-precision on the Xavier platform, representing a 22x time reduction over efficient and parallel CPU versions. Furthermore, energy consumption is reduced by a factor of x5.3. Among the tested boards, the Xavier embedded platform, being both the most powerful and the most recent, consistently delivers the best results in terms of speed and energy efficiency. Operator merging and pipelining have proven to be instrumental in improving GPU performance by enhancing data reuse. This data reuse is made possible through GPU Shared memory, which is a small, high-speed memory that enables data sharing among threads within the same GPU thread block. While merging multiple iterations yields performance gains, it is constrained by the size of the Shared memory, necessitating trade-offs between resource utilization and speed. The adoption of half-precision numbers accelerates iterative algorithms and achieves superior optical flow accuracy within the same time frame compared to single-precision counterparts. Half-precision implementations converge more rapidly due to the increased number of iterations possible within a given time window. Specifically, the use of half-precision numbers on the best GPU architecture accelerates execution by up to x2.2 for TV-L1 and x3.7 for Horn-Schunck. This work underscores the significance of both GPU-specific optimizations for computer vision algorithms, along with the use and study of reduced floating point numbers. They pave the way for future enhancements through new algorithmic transformations, alternative numerical formats, and hardware architectures. This approach can potentially be extended to other families of iterative algorithms
Styles APA, Harvard, Vancouver, ISO, etc.
48

Charles, Joseph. « Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes ». Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00718571.

Texte intégral
Résumé :
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Roudjane, Mourad. « Etude expérimentale et théorique des spectres d'émission et d'absorption VUV des molécules H2, D2 et HD ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00208073.

Texte intégral
Résumé :
Les molécules H2, HD et D2 occupent une place fondamentale en physique moléculaire, en astrophysique et en physique des plasmas. H2 est la molécule la plus abondante dans l'univers. Les récentes observations à haute résolution des transitions VUV de cette molécule et de son isotope HD ont été effectuées par le satellite FUSE dans le domaine 90.5 -118.7 nm. Ces observations permettent de déterminer le rapport d'intensités des raies HD/H2, considéré comme un outil nouveau pour évaluer le rapport d'abondances D/H, qui est connu pour être un traceur efficace de l'évolution chimique de l'Univers. Par ailleurs, les molécules H2, HD et D2 sont formées dans le plasma de bord des tokamaks et contribuent aux pertes radiatives du milieu. Par conséquent, il est indispensable de disposer de données spectroscopiques de haute qualité obtenues en laboratoire pour une exploitation fiable des résultats d'observations ou pour une modélisation réaliste des plasmas de fusion.

L'objectif de cette thèse est d'effectuer une étude expérimentale à haute résolution des spectres d'émission et d'absorption des isotopes D2 et HD de l'hydrogène moléculaire dans le VUV et de la compléter par une étude théorique des états électroniques excités en relation avec les transitions observées. Une telle étude avait été effectuée dans notre laboratoire et avait abouti à la réalisation d'un atlas VUV dans le domaine 78-170 nm.

Les spectres d'émission de HD et D2 sont produits par une source à décharge Penning opérant sous faible pression, et sont enregistrés dans la région spectrale 78 -170 nm à l'aide du spectrographe sous vide de 10 mètres à haute résolution (~ 150 000) de l'Observatoire de Meudon, soit sur plaques photographiques, soit sur des écrans phosphore photostimulables pour mesure d'intensités. Les spectres enregistrés contiennent plus de 20 000 raies. Les longueurs d'onde sont mesurées avec une précision de Δλ/λ= 10-6.Les raies des molécules D2 et H2 étant inévitablement présentes dans le spectre de HD, nous avons d'abord cherché à réaliser l'analyse du spectre de D2, qui consiste à identifier et à assigner les raies aux transitions électroniques entre des niveaux d'énergie de la molécule.

Nous avons par ailleurs réalisé une étude en absorption des molécules HD et D2 au Centre Laser LCVU d'Amsterdam. Nous avons mesuré par spectroscopie laser à deux photons 1XUV+1UV, de nouvelles longueurs d'onde avec une précision inégalée de Δλ/λ= 10-8 dans le domaine spectral 99.9-104 nm permis par l'accordabilité du laser XUV.

Ces nouvelles longueurs d'ondes constitueront une base de données de raies de référence pour la calibration des spectres moléculaires, mais leurs intérêts ne s'arrêtent pas au laboratoire. En effet, les nouvelles raies de HD mesurées par spectroscopie laser, ajoutées aux raies de H2 déjà mesurées avec une précision similaire, seront utilisées comme référence pour mettre en évidence une possible variation cosmologique du rapport de masse proton-électron μ= mp/me, par comparaison avec des longueurs d'onde de raies de H2 ou de HD observées dans les spectres d'absorption de quasars à grands déplacements vers le rouge. Cette étude nécessite la connaissance des coefficients de sensibilité des longueurs d'onde par rapport à la possible variation de μ, que nous avons calculés par la résolution d'un système d'équations couplées pour les états électroniques B, B', C et D de la molécule H2 et HD pour diverses valeurs de μ.

Durant ce travail de thèse, nous nous sommes également intéressés à des transitions entre états libres-libres et états libres-liés de la molécule H2. Ces transitions se produisent lors d'une collision H-H formant une quasi-molécule et sont responsables de l'apparition de satellites dans l'aile des raies de l'atome d'hydrogène. Nous avons effectué une étude quantique du satellite quasi-moléculaire de la raie Lymanβ et calculé le profil d'absorption du satellite en fonction de la température. Cette variation est un outil important de diagnostic pour la détermination des caractéristiques des atmosphères des naines blanches.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Durochat, Clément. « Méthode de type Galerkin discontinu en maillages multi-éléments (et non-conformes) pour la résolution numérique des équations de Maxwell instationnaires ». Thesis, Nice, 2013. http://www.theses.fr/2013NICE4005.

Texte intégral
Résumé :
Cette thèse porte sur l’étude d’une méthode de type Galerkin discontinu en domaine temporel (GDDT), afin de résoudre numériquement les équations de Maxwell instationnaires sur des maillages hybrides tétraédriques/hexaédriques en 3D (triangulaires/quadrangulaires en 2D) et non-conformes, que l’on note méthode GDDT-PpQk. Comme dans différents travaux déjà réalisés sur plusieurs méthodes hybrides (par exemple des combinaisons entre des méthodes Volumes Finis et Différences Finies, Éléments Finis et Différences Finies, etc.), notre objectif principal est de mailler des objets ayant une géométrie complexe à l’aide de tétraèdres, pour obtenir une précision optimale, et de mailler le reste du domaine (le vide environnant) à l’aide d’hexaèdres impliquant un gain en terme de mémoire et de temps de calcul. Dans la méthode GDDT considérée, nous utilisons des schémas de discrétisation spatiale basés sur une interpolation polynomiale nodale, d’ordre arbitraire, pour approximer le champ électromagnétique. Nous utilisons un flux centré pour approcher les intégrales de surface et un schéma d’intégration en temps de type saute-mouton d’ordre deux ou d’ordre quatre. Après avoir introduit le contexte historique et physique des équations de Maxwell, nous présentons les étapes détaillées de la méthode GDDT-PpQk. Nous réalisons ensuite une analyse de stabilité L2 théorique, en montrant que cette méthode conserve une énergie discrète et en exhibant une condition suffisante de stabilité de type CFL sur le pas de temps, ainsi que l’analyse de convergence en h (théorique également), conduisant à un estimateur d’erreur a-priori. Ensuite, nous menons une étude numérique complète en 2D (ondes TMz), pour différents cas tests, des maillages hybrides et non-conformes, et pour des milieux de propagation homogènes ou hétérogènes. Nous faisons enfin de même pour la mise en oeuvre en 3D, avec des simulations réalistes, comme par exemple la propagation d’une onde électromagnétique dans un modèle hétérogène de tête humaine. Nous montrons alors la cohérence entre les résultats mathématiques et numériques de cette méthode GDDT-PpQk, ainsi que ses apports en termes de précision et de temps de calcul
This thesis is concerned with the study of a Discontinuous Galerkin Time-Domain method (DGTD), for the numerical resolution of the unsteady Maxwell equations on hybrid tetrahedral/hexahedral in 3D (triangular/quadrangular in 2D) and non-conforming meshes, denoted by DGTD-PpQk method. Like in several studies on various hybrid time domain methods (such as a combination of Finite Volume with Finite Difference methods, or Finite Element with Finite Difference, etc.), our general objective is to mesh objects with complex geometry by tetrahedra for high precision and mesh the surrounding space by square elements for simplicity and speed. In the discretization scheme of the DGTD method considered here, the electromagnetic field components are approximated by a high order nodal polynomial, using a centered approximation for the surface integrals. Time integration of the associated semi-discrete equations is achieved by a second or fourth order Leap-Frog scheme. After introducing the historical and physical context of Maxwell equations, we present the details of the DGTD-PpQk method. We prove the L2 stability of this method by establishing the conservation of a discrete analog of the electromagnetic energy and a sufficient CFL-like stability condition is exhibited. The theoritical convergence of the scheme is also studied, this leads to a-priori error estimate that takes into account the hybrid nature of the mesh. Afterward, we perform a complete numerical study in 2D (TMz waves), for several test problems, on hybrid and non-conforming meshes, and for homogeneous or heterogeneous media. We do the same for the 3D implementation, with more realistic simulations, for example the propagation in a heterogeneous human head model. We show the consistency between the mathematical and numerical results of this DGTD-PpQk method, and its contribution in terms of accuracy and CPU time
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie