Segui questo link per vedere altri tipi di pubblicazioni sul tema: Calcul en précision mixte.

Tesi sul tema "Calcul en précision mixte"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Calcul en précision mixte".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Rappaport, Ari. "Estimations d'erreurs a posteriori et adaptivité en approximation numérique des EDPs : régularisation, linéarisation, discrétisation et précision en virgule flottante". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS057.

Testo completo
Abstract (sommario):
Cette thèse se concentre principalement sur l'analyse d'erreur a posteriori et les algorithmes adaptatifs qui en découlent pour résoudre itérativement des équations aux dérivées partielles (EDP) non linéaires. Nous considérons des EDP de type elliptique et parabolique dégénéré. Nous étudions également l'adaptivité dans la précision en virgule flottante d'un solveur multigrille. Dans les deux premiers chapitres, nous considérons des EDP elliptiques découlant d'un problème de minimisation d'énergie. L'analyse a posteriori est directement basée sur la différence d'énergie entre la solution vraie et approchée. Les applications non linéaires des EDP elliptiques que nous considérons sont en particulier fortement montones et Lipschitziennes. Dans ce contexte, une quantité importante est la « force de la non-linéarité » donnée par le rapport L/α où L est la constante de Lipschitz et α est la constante de (forte) montonicité. Dans le Chapitre 1, nous étudions un algorithme adaptatif comprenant la régularisation, la discrétisation et la linéarisation adaptative. L'algorithme est appliqué à une EDP elliptique avec une non-linéarité non régulière. Nous établissions une borne supérieure garantie, fondée sur un estimateur basé sur l'écart primal-dual. De plus, nous isolons les composantes de l'erreur correspondant à la régularisation, la discrétisation et la linéarisation qui conduisent à des critères d'arrêt adaptatifs. Nous prouvons que les estimateurs des composantes convergent vers zéro dans les limites respectives de régularisation, discrétisation et linéarisation de l'algorithme. Nous présentons des résultats numériques démontrant l'efficacité de l'algorithme. Nous présentons également des preuves numériques de robustesse par rapport au ratio mentionné L/α qui motive le travail dans le deuxième chapitre. Dans le Chapitre 2, nous examinons la question de l'efficacité et de la robustesse de l'estimateur d'erreur de l'écart primal-dual. Nous considérons en particulier une différence d'énergie augmentée, pour laquelle nous établissons une indépendance vis-à-vis de ce ratio pour la linéarisation de Zarantonello et seulement une dépendance locale et calculable par patch pour d'autres méthodes de linéarisation, y compris la linéarisation de Newton. Des résultats numériques sont présentés pour étayer les développements théoriques. Dans le Chapitre 3, nous nous tournons vers le problème de régularisation adaptative pour l'équation de Richards. L'équation de Richards apparaît dans le contexte de la modélisation des milieux poreux. Elle contient des non-linéarités non-régulières, et se prêtant à la même approche que celle adoptée dans le Chapitre 1. Nous développons des estimateurs, ici inspirés des estimateurs en norme duale du résidu, ainsi qu'un algorithme adaptatif basé sur ces estimateurs. Dans le Chapitre 4, nous fournissons des détails sur la mise en œuvre efficace du flux équilibré : un ingrédient crucial dans le calcul des estimateurs d'erreur. La mise en œuvre s'appuie sur le paradigme du multi-threading dans le langage de programmation Julia. Une boucle supplémentaire est introduite pour éviter les allocations de mémoire, essentielle pour obtenir un passage à l'échelle parallèle. Dans le Chapitre 5, nous considérons un algorithme de précision mixte avec une méthode de multigrille géométrique comme solveur interne. Le solveur multigrille fournit intrinsèquement un estimateur d'erreur que nous utilisons dans le critère d'arrêt pour le raffinement itératif. Nous présentons un benchmark pour démontrer l'accélération obtenue en utilisant des représentations en simple précision des matrices creuses impliquées. Nous concevons également un algorithme adaptatif qui utilise l'estimateur mentionné pour identifier quand le raffinement itératif échoue pour des problèmes trop mal conditionnés, l'algorithme est alors capable de récupérer et de résoudre le problème entièrement en double précision
This thesis concerns a posteriori error analysis and adaptive algorithms to approximately solve nonlinear partial differential equations (PDEs). We consider PDEs of both elliptic and degenerate parabolic type. We also study adaptivity in floating point precision of a multigrid solver of systems of linear algebraic equations. In the first two chapters, we consider elliptic PDEs arising from an energy minimization problem. The a posteriori analysis therein is based directly on the difference of the energy in the true and approximate solution. The nonlinear operators of the elliptic PDEs we consider are strongly monotone and Lipschitz continuous. In this context, an important quantity is the “strength of the nonlinearity” given by the ratio L/α where L is the Lipschitz continuity constant and α is the (strong) monotonicity constant. In Chapter 1 we study an adaptive algorithm comprising adaptive regularization, discretization, and linearization. The algorithm is applied to an elliptic PDE with a nonsmooth nonlinearity. We derive a guaranteed upper bound based on primal-dual gap based estimator. Moreover, we isolate components of the error corresponding to regularization, discretization, and linearization that lead to adaptive stopping criteria. We prove that the component estimators converge to zero in the respective limits of regularization, discretization, and linearization steps of the algorithm. We present numerical results demonstrating the effectiveness of the algorithm. We also present numerical evidence of robustness with respect to the aforementioned ratio L/α which motivates the work in the second chapter. In Chapter 2, we consider the question of efficiency and robustness of the primal-dual gap error estimator. We in particular consider an augmented energy difference, for which we establish independence of the ratio L/α (robustness) for the Zarantonello linearization and only patch-local and computable dependence for other linearization methods including the Newton linearization. Numerical results are presented to substantiate the theoretical developments. In Chapter 3 we turn our attention to the problem of adaptive regularization for the Richards equation. The Richards equation appears in the context of porous media modeling. It contains nonsmooth nonlinearities, which are amenable to the same approach we adopt in Chapter 1. We develop estimators and an adaptive algorithm where the estimators are inspired by estimators based on the dual norm of the residual. We test our algorithm on a series of numerical examples coming from the literature. In Chapter 4 we provide details for an efficient implementation of the equilibrated flux, a crucial ingredient in computing the error estimators so far discussed. The implementation relies on the multi-threading paradigm in the Julia programming language. An additional loop is introduced to avoid memory allocations, which is crucial to obtain parallel scaling. In Chapter 5 we consider a mixed precision iterative refinement algorithm with a geometric multigrid method as the inner solver. The multigrid solver inherently provides an error estimator of the algebraic error which we use in the stopping criterion for the iterative refinement. We present a benchmark to demonstrate the speedup obtained by using single precision representations of the sparse matrices involved. We also design an adaptive algorithm that uses the aforementioned estimator to identify when iterative refinement in single precision fails and is able to recover and solve the problem fully in double precision
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Robeyns, Matthieu. "Mixed precision algorithms for low-rank matrix and tensor approximations". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG095.

Testo completo
Abstract (sommario):
La gestion des données est souvent réalisée par des objets mathématiques tels que les matrices et les tenseurs, qui sont la généralisation des matrices à plus de deux dimensions.Certains domaines d'application nécessitent de stocker trop d'éléments, créant des tenseurs trop grands ; ce problème est connu sous le nom de emph curse of dimensionality.Des méthodes mathématiques telles que les approximations de rang faible ont été développées pour réduire la dimensionnalité de ces objets malgré un coût très élevé en temps de calcul.De plus, de nouvelles architectures informatiques telles que les GPU nous permettent d'effectuer des calculs rapidement, notamment lors de calculs en faible précision.Combiner ces nouvelles architectures avec l'approximation de rang faible est une solution malgré la qualité des résultats altérée par la faible précision.Cette thèse vise à proposer des algorithmes d'approximation de rang faible stables en faible précision tout en conservant l'accélération inhérente au calcul en faible précision, ce qui est réalisable grâce au calcul en précision mixte.Nous avons développé une méthode générale d'approximation de tenseurs en précision mixte en calculant d'abord une approximation en faible précision et en l'affinant itérativement avec une précision supérieure pour maintenir la qualité du résultat.Sachant que cette accélération provient principalement des architectures GPU, plus précisément d'unités de calcul spécialisées appelées emph tensor cores, nous avons développé une méthode générale d'approximation matricielle pour les architectures GPU en précision mixte utilisant ces emph tensor cores.Notre méthode maintient la qualité du résultat, mais au prix d'une approximation de dimension supérieur à celle des applications standards.Pour compenser cet écart, des méthodes de recompression de dimension existent pour différents formats de tenseurs.Notre contribution finale propose une méthode de recompression englobant les différents formats de tenseurs et de matrices tout en prouvant analytiquement sa stabilité
Data management is often done by mathematical objects such as matrices and tensors, which are the generalization of matrices to more than two dimensions.Some application domains require too many elements to be stored, creating tensors too large; this problem is known as the emph curse of dimensionality.Mathematical methods such as low-rank approximations have been developed to reduce the dimensionality of these objects despite a very high cost in computation time.Moreover, new computer architectures such as GPUs allow us to perform computations quickly, especially when computing with low precision.Combining these new architectures with low-rank approximation is a solution despite the quality of the results being impaired by low precision.This thesis aims to propose low-rank approximation algorithms that are stable in low precision while maintaining the speedup inherent in low-precision computation, which is feasible thanks to mixed-precision computation.We have developed a general method for mixed-precision tensor approximation by first computing a low-precision approximation and iteratively refining it with higher precision to maintain the quality of the result.Knowing that this speedup comes mainly from GPU architectures, more precisely from specialized computing units called emph ensor cores, we have developed a general matrix approximation method for mixed-precision GPU architectures using these emph tensor cores.Our method maintains the quality of the result but at the expense of a higher-dimensional approximation than standard applications.To compensate for this gap, dimension recompression methods exist for different tensor formats.Our final contribution proposes a recompression method encompassing the different tensor and matrix formats while proving analytically its stability
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Gratton, Serge. "Outils théoriques d'analyse du calcul à précision finie". Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Testo completo
Abstract (sommario):
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Brunin, Maxime. "Étude du compromis précision statistique-temps de calcul". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Testo completo
Abstract (sommario):
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Vaccon, Tristan. "Précision p-adique". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Testo completo
Abstract (sommario):
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Braconnier, Thierry. "Sur le calcul des valeurs propres en précision finie". Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Testo completo
Abstract (sommario):
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Pirus, Denise. "Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O". Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Testo completo
Abstract (sommario):
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Nguyen, Hai-Nam. "Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Boucher, Mathieu. "Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté". Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Testo completo
Abstract (sommario):
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Khali, Hakim. "Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Fall, Mamadou Mourtalla. "Contribution à la détermination de la précision de calcul des algorithmes de traitements numériques". Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0173.

Testo completo
Abstract (sommario):
Les travaux effectués dans le cadre de cette thèse contribuent à la détermination de la précision de calcul des algorithmes de traitements numériques, par l'élaboration d'une nouvelle approche théorique et pratique de certification d'algorithmes. Par certification d'algorithme, nous entendons : 1) la quantification des erreurs de sortie lorsque celles d'entrée sont connues, 2) la détermination de la stabilité d'un algorithme dans tout son domaine de validité, 3) la détermination des points critiques de l'algorithme, 4) la comparaison et la graduation de nombreux algorithmes censés résoudre le même problème. L'algorithme à certifier sera considéré comme une boite noire dont on ne peut voir que les entrées et les sorties. A partir de son comportement en fonction des entrées données, nous construisons un modèle mathématique permettant de l'identifier, en tout point de son domaine de définition. La nouvelle approche élaborée est fondée sur la théorie des problèmes inverses associée à celle des probabilités.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Haddaoui, Khalil. "Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066176/document.

Testo completo
Abstract (sommario):
La simulation numérique adaptative d'écoulements présentant des phénomènes multi-échelles s'effectue généralement au moyen d'une hiérarchie de modèles différents selon l'échelle mise en jeu et le niveau de précision requis. Ce type de modélisation numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l'analyse et à la mise en œuvre de méthodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d'équations aux dérivées partielles hyperboliques.Dans une première partie, nous développons et analysons une méthode numérique dédiée au couplage interfacial des équations d'Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d'une loi de pression distincte et l'interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l'interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l'interface (typiquement des pertes de charge) et sa définition permet l'application de plusieurs stratégies de couplage. Notre méthode d'approximation repose sur les techniques d'approximation par relaxation de type Suliciu. La résolution exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L'implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu'il est possible de contrôler l'écoulement à l'interface de couplage en calculant des poids solutions de problèmes d'optimisation sous contraintes.La deuxième partie de cette thèse est dédiée au développement de deux schémas numériques d'ordre arbitrairement élevé en espace pour l'approximation des solutions stationnaires du problème mixte associé au modèle de Jin et Xin. Nos schémas d'approximation reposent sur la méthode de Galerkin discontinue. L’approximation des solutions du problème mixte par notre premier schéma fait intervenir uniquement des erreurs de discrétisation tandis que notre deuxième schéma est constitué à la fois d'erreurs de modélisation et de discrétisation. L'erreur de modélisation provient du remplacement, dans certaines régions spatiales, de la résolution du modèle de relaxation par celle de l'équation scalaire équilibre associée. Sous l'hypothèse d'une interface de couplage éventuellement caractéristique, la résolution du problème de Riemann associé au modèle couplé nous permet de construire un schéma numérique d'ordre arbitrairement élevé prenant en compte l'éventuelle existence de couches limites à l'interface de couplage. Enfin, la mise en œuvre de ces méthodes nous permet d'analyser quantitativement et qualitativement les erreurs de modélisation et de discrétisation commises lors de l'utilisation du schéma couplé. Ces erreurs sont fonction du niveau de raffinement de maillage utilisé, du degré de polynôme choisi et de la position de l'interface de couplage
The adaptive numerical simulation of multiscale flows is generally carried out by means of a hierarchy of different models according to the specific scale into play and the level of precision required. This kind of numerical modeling involves complex multiscale coupling problems. This thesis is thus devoted to the development, analysis and implementation of efficient methods for solving coupling problems involving hyperbolic models.In a first part, we develop and analyze a coupling algorithm for one-dimensional Euler systems. Each system of conservation laws is closed with a different pressure law and the coupling interface separating these models is assumed fix and thin. The transmission conditions linking the systems are modelled thanks to a measure source term concentrated at the coupling interface. The weight associated to this measure models the losses of conservation and its definition allows the application of several coupling strategies. Our method is based on Suliciu's relaxation approach. The exact resolution of the Riemann problem associated to the relaxed system allows us to design an extremely accurate scheme for the coupling model. This scheme preserves equilibrium solutions of the coupled problem and can be used for general pressure laws. Several numerical experiments assess the performances of our scheme. For instance, we show that it is possible to control the flow at the coupling interface when solving constrained optimization problems for the weights.In the second part of this manuscript we design two high order numerical schemes based on the discontinuous Galerkin method for the approximation of the initial-boundary value problem associated to Jin and Xin's model. Our first scheme involves only discretization errors whereas the second approximation involves both modeling and discretization errors. Indeed in the second approximation, we replace in some regions the resolution of the relaxation model by the resolution of its associated scalar equilibrium equation. Under the assumption of a possible characteristic coupling interface, we exactly solve the Riemann problem associated to the coupled model. This resolution allows us to design a high order numerical scheme which captures the possible boundary layers at the coupling interface. Finally, the implementation of our methods enables us to analyze quantitatively and qualitatively the modeling and discretization errors involved in the coupled scheme. These errors are functions of the mesh size, the degree of the polynomial approximation and the position of the coupling interface
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Rizzo, Axel. "Amélioration de la précision du formulaire DARWIN2.3 pour le calcul du bilan matière en évolution". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0306/document.

Testo completo
Abstract (sommario):
Le formulaire de calcul DARWIN2.3, basé sur l’évaluation des données nucléaires JEFF-3.1.1, est dédié aux applications du cycle du combustible nucléaire. Il est validé expérimentalement pour le calcul du bilan matière par comparaison avec des mesures de rapports isotopiques réalisées sur des tronçons de combustibles irradiés en réacteur de puissance. Pour certains nucléides d’intérêt pour le cycle du combustible, la validation expérimentale montre que le calcul de la concentration en évolution pourrait être amélioré. C’est dans ce contexte que les travaux de thèse ont été menés : après s’être assuré que le biais Calcul / Expérience (C/E) est majoritairement dû aux données nucléaires, deux voies d’amélioration du calcul du bilan matière sont proposées et étudiées.La première voie d’amélioration s’attache à la ré-estimation des données nucléaires par assimilation des données intégrales. Elle consiste en l'assimilation des données provenant de la validation expérimentale du calcul du bilan matière avec DARWIN2.3 à l'aide du code d’évaluation des données nucléaires CONRAD. Des recommandations d’évolution d’évaluation, qui découlent de l’analyse de ces travaux, sont effectuées.La deuxième voie d’amélioration consiste à proposer de nouvelles expériences pour valider les données nucléaires impliquées dans la formation de nucléides pour lesquels on ne dispose pas d’expérience pour valider le calcul de la concentration avec DARWIN2.3. La faisabilité d’une expérience dédiée à la validation des sections efficaces des réactions de formation du 14C, à savoir 14N(n,p) et 17O(n,α), a été démontrée en ce sens
The DARWIN2.3 calculation package, based on the use of the JEFF-3.1.1 nuclear data library, is devoted to nuclear fuel cycle studies. It is experimentally validated for fuel inventory calculation thanks to dedicated isotopic ratios measurements realized on in-pile irradiated fuel rod cuts. For some nuclides of interest for the fuel cycle, the experimental validation work points out that the concentration calculation could be improved. The PhD work was done in this framework: having verified that calculation-to-experiment (C/E) biases are mainly due to nuclear data, two ways of improving fuel inventory calculation are proposed and investigated. It consists on one hand in improving nuclear data using the integral data assimilation technique. Data from the experimental validation of DARWIN2.3 fuel inventory calculation are assimilated thanks to the CONRAD code devoted to nuclear data evaluation. Recommendations of nuclear data evaluations are provided on the basis of the analysis of the assimilation work. On the other hand, new experiments should be proposed to validate nuclear data involved in the buildup of nuclides for which there is no post-irradiation examination available to validate DARWIN2.3 fuel inventory calculation. To that extent, the feasibility of an experiment dedicated to the validation of the ways of formation of 14C, which are 14N(n,p) and 17O(n,α) reaction cross sections, was demonstrated
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Hasni, Hamadi. "Logiciels vectoriels d'optimisation de problèmes non contraints de grandes tailles et calcul de la précision". Paris 6, 1986. http://www.theses.fr/1986PA066477.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Madeira, De Campos Velho Pedro Antonio. "Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00625497.

Testo completo
Abstract (sommario):
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Madeira, de Campos Velho Pedro Antonio. "Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle". Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM027/document.

Testo completo
Abstract (sommario):
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants
Large-Scale Distributed Computing (LSDC) systems are in production today to solve problems that require huge amounts of computational power or storage. Such systems are composed by a set of computational resources sharing a communication infrastructure. In such systems, as in any computing environment, specialists need to conduct experiments to validate alternatives and compare solutions. However, due to the distributed nature of resources, performing experiments in LSDC environments is hard and costly. In such systems, the execution flow depends on the order of events which is likely to change from one execution to another. Consequently, it is hard to reproduce experiments hindering the development process. Moreover, resources are very likely to fail or go off-line. Yet, LSDC archi- tectures are shared and interference among different applications, or even among processes of the same application, affects the overall application behavior. Last, LSDC applications are time consuming, thus conducting many experiments, with several parameters is often unfeasible. Because of all these reasons, experiments in LSDC often rely on simulations. Today we find many simulation approaches for LSDC. Most of them objective specific architectures, such as cluster, grid or volunteer computing. Each simulator claims to be more adapted for a particular research purpose. Nevertheless, those simulators must address the same problems: modeling network and managing computing resources. Moreover, they must satisfy the same requirements providing: fast, accurate, scalable, and repeatable simulations. To match these requirements, LSDC simulation use models to approximate the system behavior, neglecting some aspects to focus on the desired phe- nomena. However, models may be wrong. When this is the case, trusting on models lead to random conclusions. In other words, we need to have evidence that the models are accurate to accept the con- clusions supported by simulated results. Although many simulators exist for LSDC, studies about their accuracy is rarely found. In this thesis, we are particularly interested in analyzing and proposing accurate models that respect the requirements of LSDC research. To follow our goal, we propose an accuracy evaluation study to verify common and new simulation models. Throughout this document, we propose model improvements to mitigate simulation error of LSDC simulation using SimGrid as case study. We also evaluate the effect of these improvements on scalability and speed. As a main contribution, we show that intuitive models have better accuracy, speed and scalability than other state-of-the art models. These better results are achieved by performing a thorough and systematic analysis of problematic situations. This analysis reveals that many small yet common phenomena had been neglected in previous models and had to be accounted for to design sound models
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Tisseur, Françoise. "Méthodes numériques pour le calcul d'éléments spectraux : étude de la précision, la stabilité et la parallélisation". Saint-Etienne, 1997. http://www.theses.fr/1997STET4006.

Testo completo
Abstract (sommario):
Cette thèse est constituée de deux parties. La première traite de la méthode QR pour le calcul de valeurs propres de matrices quelconques, de tailles modérées. Les contributions originales à ce sujet sont a) une preuve rigoureuse de sa stabilité inverse, b) un nouveau critère d'arrêt justifié par une analyse mathématique. La seconde partie traite de la méthode de Yau et Lu pour le calcul de valeurs propres de matrices symétriques réelles de grandes tailles. Les contributions dans ce travail à ce sujet sont a) une compréhension mathématique accrue de la méthode, b) sa validation numérique, c) une proposition de parallélisation
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Khadraoui, Sofiane. "Calcul par intervalles et outils de l’automatique permettant la micromanipulation à précision qualifiée pour le microassemblage". Thesis, Besançon, 2012. http://www.theses.fr/2012BESA2027/document.

Testo completo
Abstract (sommario):
Les systèmes micro mécatroniques intègrent dans un volume très réduit des fonctions de natures différentes (électrique, mécanique, thermique, magnétique ou encore optique). Ces systèmes sont des produits finaux ou sont dans des systèmes de taille macroscopique. La tendance à la miniaturisation et à la complexité des fonctions à réaliser conduit à des microsystème en trois dimensions et constitué´es de composants provenant de processus de (micro)fabrication parfois incompatibles. L’assemblage microbotique est une réponse aux challenges de leur réalisation. Pour assurer les opérations d’ assemblage avec des précisions et des résolutions élevées, des capteurs adaptés au micro monde et des outils particuliers de manipulation doivent être utilisés. Les éléments principaux constituants les systèmes de micromanipulation sont les micro-actionneurs.Ces derniers sont souvent faits à base de matériaux actifs parmi lesquels les matériaux Piézoélectriques . Les actionneurs piézoélectriques sont caractérisés par leur très haute résolution (souvent nanométrique), leur grande bande-passante (plus du kHz pour certains micro-actionneurs) et leur grande densité de force. Tout ceci en fait des actionneurs particulièrement intéressants pour le micro-assemblage et la micromanipulation. Cependant,ces actionneurs présentent, en plus de leur comportement non-linéaire, une forte dépendance à l’environnement et aux tâches considérées. De plus, ces tâches de micromanipulation et de micro-assemblage sont confrontées à un manque de capteurs précis et compatibles avec les dimensions du micromonde. Ceci engendre des incertitudes sur les paramètres du élaboré lors de l’identification. En présence du verrou technologique lié à la réalisation des capteurs et des propriétés complexes des actionneurs, il est difficile d’obtenir les performances de haut niveau requises pour réussir les tâches de micromanipulation et de micro-assemblage. C’est notamment la mise au point d’outils de commande convenables qui permet d’atteindre les niveaux de précision et de résolution nécessaires.Les travaux de cette thèse s’inscrivent dans ce cadre. Afin de réussir les tâches de micromanipulation et de micro-assemblage, plusieurs méthodes de commande prenant en compte des incertitudes liées au modèle, comme les approches de commande robustes de type H-inf ont déjà utilisées pour commander les actionneurs piézoélectriques.L’un des inconvénients majeurs de ces méthodes est la dérivation de régulateurs d’ordre élevé qui sont coûteux en calcul et peuvent difficilement être embarqués dans les microsystèmes. Afin de prendre en compte les incertitudes paramétriques des modèles des Systèmes à commander, nous proposons une solution alternative basée sur l’utilisation du calcul par intervalles. Ces techniques du calcul par intervalles sont combinées avec les outils de l’automatique pour modéliser et commander les microsystèmes. Nous chercherons également à montrer que l’utilisation de ces techniques permet d’associer la robustesse et la simplicité des correcteurs dérivés
Micromechatronic systems integrate in a very small volume functions with differentnatures. The trend towards miniaturization and complexity of functions to achieve leadsto 3-dimensional microsystems. These 3-dimensional systems are formed by microroboticassembly of various microfabricated and incompatible components. To achieve theassembly operations with high accuracy and high resolution, adapted sensors for themicroworld and special tools for the manipulation are required. The microactuators arethe main elements that constitute the micromanipulation systems. These actuators areoften based on smart materials, in particular piezoelectric materials. The piezoelectricmaterials are characterized by their high resolution (nanometric), large bandwidth (morethan kHz) and high force density. This why the piezoelectric actuators are widely usedin the micromanipulation and microassembly tasks. However, the behavior of the piezoelectricactuators is non-linear and very sensitive to the environment. Moreover, thedeveloppment of the micromanipulation and the microassembly tasks is limited by thelack of precise and compatible sensors with the microworld dimensions. In the presenceof the difficulties related to the sensors realization and the complex characteristics ofthe actuators, it is difficult to obtain the required performances for the micromanipulationand the microassembly tasks. For that, it is necessary to develop a specific controlapproach that achieves the wanted accuracy and resolution.The works in this thesis deal with this problematic. In order to success the micromanipulationand the microassembly tasks, robust control approaches such as H∞ havealready been tested to control the piezoelectric actuators. However, the main drawbacksof these methods is the derivation of high order controllers. In the case of embedded microsystems,these high order controllers are time consuming which limit their embeddingpossibilities. To address this problem, we propose in our work an alternative solutionto model and control the microsystems by combining the interval techniques with theautomatic tools. We will also seek to show that the use of these techniques allows toderive robust and low-order controllers
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Oumaziz, Paul. "Une méthode de décomposition de domaine mixte non-intrusive pour le calcul parallèle d’assemblages". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN030/document.

Testo completo
Abstract (sommario):
Les assemblages sont des éléments critiques pour les structures industrielles. De fortes non-linéarités de type contact frottant, ainsi que des précharges mal maîtrisées rendent complexe tout dimensionnement précis. Présents en très grand nombre sur les structures industrielles (quelques millions pour un A380), cela implique de rafiner les modèles localement et donc de gérer des problèmes numé-riques de très grandes tailles. Les nombreuses interfaces de contact frottant sont des sources de difficultés de convergence pour les simulations numériques. Il est donc nécessaire de faire appel à des méthodes robustes. Il s’agit d’utiliser des méthodes itératives de décomposition de domaine, permettant de gérer des modèles numériques extrêmement grands, couplées à des techniques adaptées afin de prendre en compte les non-linéarités de contact aux interfaces entre sous-domaines. Ces méthodes de décomposition de domaine restent encore très peu utilisées dans un cadre industriel. Des développements internes aux codes éléments finis sont souvent nécessaires et freinent ce transfert du monde académique au monde industriel.Nous proposons, dans ces travaux de thèse, une mise-en-oeuvre non intrusive de ces méthodes de décomposition de domaine : c’est-à-dire sans développement au sein du code source. En particulier, nous nous intéressons à la méthode Latin dont la philosophie est particulièrement adaptée aux problèmes non linéaires. La structure est décomposée en sous-domaines reliés entre eux au travers d’interfaces. Avec la méthode Latin, les non-linéarités sont résolues séparément des aspects linéaires. La résolution est basée sur un schéma itératif à deux directions de recherche qui font dialoguer les problèmes linéaires globaux etles problèmes locaux non linéaires.Au cours de ces années de thèse, nous avons développé un outil totalement non intrusif sous Code_Aster permettant de résoudre par une technique de décomposition de domaine mixte des problèmes d’assemblage. Les difficultés posées par le caractère mixte de la méthode Latin sont résolues par l’introduction d’une direction de recherche non locale. Des conditions de Robin sur les interfaces des sous-domaines sont alors prises en compte simplement sans modifier les sources de Code_Aster. Nous avons proposé une réécriture algébrique de l’approche multi-échelle assurant l’extensibilité de la méthode. Nous nous sommes aussi intéressés à coupler la méthode Latin en décomposition de domaine à un algorithme de Krylov. Appliqué uniquement à un problème sous-structuré avec interfaces parfaites, ce couplage permet d’accélérer la convergence. Des structures préchargées avec de nombreuses interfaces de contact frottant ont été traitées. Des simulations qui n’auraient pu être menées par un calcul direct sous Code_Aster ont été réalisées via cette stratégie de décomposition de domaine non intrusive
Abstract : Assemblies are critical elements for industrial structures. Strong non-linearities such as frictional contact, as well as poorly controlled preloads make complex all accurate sizing. Present in large numbers on industrial structures (a few million for an A380), this involves managing numerical problems of very large size. The numerous interfaces of frictional contact are sources of difficulties of convergence for the numerical simulations. It is therefore necessary to use robust but also reliable methods. The use of iterative methods based on domain decomposition allows to manage extremely large numerical models. This needs to be coupled with adaptedtechniques in order to take into account the nonlinearities of contact at the interfaces between subdomains. These methods of domain decomposition are still scarcely used in industries. Internal developments in finite element codes are often necessary, and thus restrain this transfer from the academic world to the industrial world.In this thesis, we propose a non-intrusive implementation of these methods of domain decomposition : that is, without development within the source code. In particular, we are interested in the Latin method whose philosophy is particularly adapted to nonlinear problems. It consists in decomposing the structure into sub-domains that are connected through interfaces. With the Latin method the non-linearities are solved separately from the linear differential aspects. Then the resolution is based on an iterative scheme with two search directions that make the global linear problems and the nonlinear local problems dialogue.During this thesis, a totally non-intrusive tool was developed in Code_Aster to solve assembly problems by a mixed domain decomposition technique. The difficulties posed by the mixed aspect of the Latin method are solved by the introduction of a non-local search direction. Robin conditions on the subdomain interfaces are taken into account simply without modifying the sources of Code_Aster. We proposed an algebraic rewriting of the multi-scale approach ensuring the extensibility of the method. We were also interested in coupling the Latin method in domain decomposition to a Krylov algorithm. Applied only to a substructured problem with perfect interfaces, this coupling accelerates the convergence. Preloaded structures with numerous contact interfaces have been processed. Simulations that could not be carried out by a direct computationwith Code_Aster were performed via this non-intrusive domain decomposition strategy
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Desmeure, Geoffrey. "Une stratégie de décomposition de domaine mixte et multiéchelle pour le calcul des assemblages". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN011/document.

Testo completo
Abstract (sommario):
Dans un contexte de grande concurrence internationale, la simulation numérique du comportement joue un rôle primordial dans le domaine aéronautique, permettant de réduire les délais et les coûts de conception, d'évaluer la pertinence de nouvelles solutions technologiques avant de se lancer dans les investissements qu'elles imposent. Visant la simulation de structures assemblées, ce travail de thèse a consisté a développer une méthode de décomposition de domaine mixte, multiéchelle, s’appuyant sur le solveur LaTIn. Afin de simplifier le traitement discret des quantités d'interface, la méthode proposée utilise un représentant des interefforts qui évolue dans le même espace que les déplacements d’interface (H^1/2). Elle s'appuie sur le produit scalaire associé à ces quantités pour le calcul des travaux d'interface. Délicat à calculer, ce produit scalaire est traité par une approximation validée numériquement. Le calcul de la matrice de masse pleine en découlant est récompensé par un taux de convergence montré indépendant du pas du maillage et de la taille des sous-domaines sur plusieurs cas-tests faisant intervenir notamment du contact
Mechanical industries' need of liability in numerical simulations leads to evermore fine and complex models taking into account complicated physical behaviours. With the aim of modelling large complex structures, a non-overlapping mixed domain decomposition method based on a LaTIn-type iterative solver is proposed.The method relies on splitting the studied domain into substructures and interfaces which can both bear mechanical behaviors so that perfect cohesion, contact, delamination can be modelled by the interfaces. The associated solver enables to treat at small scales nonlinear phenomena and, as commonly done, scalabilty is ensured by a coarse problem. The method presented uses the Riesz representation theorem to represent interface tractions in H^1/2 in order to discretize them accordingly to the displacements. Independence of convergence and search direction's optimal value from mesh size is evidenced and high precision can be reached in few iterations.Different test-cases assess the method for perfect and contact interfaces
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Rey, Valentine. "Pilotage de stratégies de calcul par décomposition de domaine par des objectifs de précision sur des quantités d’intérêt". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN018/document.

Testo completo
Abstract (sommario):
Ces travaux de recherche ont pour objectif de contribuer au développement et à l'exploitation d'outils de vérification des problèmes de mécanique linéaires dans le cadre des méthodes de décomposition de domaine sans recouvrement. Les apports de cette thèse sont multiples : * Nous proposons d'améliorer la qualité des champs statiquement admissibles nécessaires à l'évaluation de l'estimateur par une nouvelle méthodologie de reconstruction des contraintes en séquentiel et par des optimisations du calcul de l'intereffort en cadre sous-structuré.* Nous démontrons des bornes inférieures et supérieures de l'erreur séparant l'erreur algébrique (due au solveur itératif) de l'erreur de discrétisation (due à la méthode des éléments finis) tant pour une mesure globale que pour une quantité d'intérêt. Cette séparation permet la définition d'un critère d'arrêt objectif pour le solveur itératif.* Nous exploitons les informations fournies par l'estimateur et les espaces de Krylov générés pour mettre en place une stratégie auto-adaptative de calcul consistant en une chaîne de résolution mettant à profit remaillage adaptatif et recyclage des directions de recherche. Nous mettons en application le pilotage du solveur par un objectif de précision sur des exemples mécaniques en deux dimensions
This research work aims at contributing to the development of verification tools in linear mechanical problems within the framework of non-overlapping domain decomposition methods.* We propose to improve the quality of the statically admissible stress field required for the computation of the error estimator thanks to a new methodology of stress reconstruction in sequential context and thanks to optimizations of the computations of nodal reactions in substructured context.* We prove guaranteed upper and lower bounds of the error that separates the algebraic error (due to the iterative solver) from the discretization error (due to the finite element method) for both global error measure mentand goal-oriented error estimation. It enables the definition of a new stopping criterion for the iterative solver which avoids over-resolution.* We benefit the information provided by the error estimator and the Krylov subspaces built during the resolution to set an auto-adaptive strategy. This strategy consists in sequel of resolutions and takes advantage of adaptive remeshing and recycling of search directions .We apply the steering of the iterative solver by objective of precision on two-dimensional mechanical examples
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Benmouhoub, Farah. "Optimisation de la précision numérique des codes parallèles". Thesis, Perpignan, 2022. http://www.theses.fr/2022PERP0009.

Testo completo
Abstract (sommario):
Les nombres flottants sont utilisés à la place des nombres réels pour les calculs sur ordinateurs. L'utilisation de ces nombres introduit des erreurs d'arrondi qui sont en général acceptables dans la mesure où le résultat produit par la machine est proche de celui que l'on aurait obtenu en utilisant des nombres réels. Cependant, elles peuvent aussi être amplifiées par propagation, dénuant de sens le résultat d'un calcul, ce qui peut avoir des conséquences catastrophiques dans de nombreux domaines d'application comme par exemple l'aéronautique ou la finance. La précision des calculs en nombres flottants dépend de nombreux facteurs: types d'opérations effectuées, valeurs et types de données employés, ordinateurs utilisés. En outre, la précision des calculs dépend fortement de l'ordre dans lequel sont effectuées les opérations et le parallélisme démultiplie les ordonnancements possibles. Le sujet de thèse proposé concerne ce dernier point : améliorer la précision de codes de calcul scientifique massivement parallèles tels que ce que l'on trouve dans le domaine du HPC (High Performance Computing) Ces dernières années, des techniques automatiques ont été mises au point afin de valider et réécrire les codes de calcul scientifique afin de les rendre plus précis. Ces techniques rencontrent un vif intérêt tant scientifique qu'industriel. Cependant les techniques existantes acceptent uniquement des programmes séquentiels ce qui exclut les nombreux codes de calcul intensif développés dans le domaine du HPC. Or ces codes parallèles, utilisés pour réaliser des simulations numériques complexes dans de nombreux domaines scientifiques et techniques, sont particulièrement sujets aux erreurs introduites par les nombres flottants car le parallélisme modifie l'ordre dans lequel sont effectués les calculs, voire rend cet ordre aléatoire. Les résultats obtenus peuvent alors être altérés ou non reproductibles (plusieurs si mulations identiques donnant des résultats différents)
In high performance computing, nearly all the implementations and published experiments use foating-point arithmetic. However, since foating-point numbers are finite approximations of real numbers, it may result in hazards because of the accumulated errors.These round-off errors may cause damages whose gravity varies depending on the critical level of the application. Parallelism introduces new numerical accuracy problems due to the order of operations in this kind of systems. The proposed thesis subject concerns this last point: improving the precision of massively parallel scientific computing codes such as those found in the field of HPC (High Performance Computing)
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Bergach, Mohamed Amine. "Adaptation du calcul de la Transformée de Fourier Rapide sur une architecture mixte CPU/GPU intégrée". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4060/document.

Testo completo
Abstract (sommario):
Les architectures multi-cœurs Intel Core (IvyBridge, Haswell,...) contiennent à la fois des cœurs CPU généralistes (4), mais aussi des cœurs dédiés GPU embarqués sur cette même puce (16 et 40 respectivement). Dans le cadre de l'activité de la société Kontron (qui participe à ce financement de nature CIFRE) un objectif important est de calculer efficacement sur cette architecture des tableaux et séquences de transformées de Fourier rapides (FFT), comme par exemple on en trouve dans des applications radar. Alors que des bibliothèques natives (mais propriétaires) existent chez Intel pour les CPU, rien de tel n'est actuellement disponible pour la partie GPU. L'objectif de la thèse était donc de définir le placement efficace de modules FFT, en étudiant au niveau théorique la forme optimale permettant de regrouper des étages de calcul d'une telle FFT en fonction de la localité des données sur un cœur de calcul unique. Ce choix a priori permet d'espérer une efficacité des traitements, en ajustant la taille de la mémoire disponible à celles des données nécessaires. Ensuite la multiplicité des cœurs reste exploitable pour disposer plusieurs FFT calculées en parallèle, sans interférence (sauf contention du bus entre CPU et GPU). Nous avons obtenu des résultats significatifs, tant au niveau de l'implantation d'une FFT (1024 points) sur un cœur CPU SIMD, exprimée en langage C, que pour l'implantation d'une FFT de même taille sur un cœur GPU SIMT, exprimée alors en OpenCL. De plus nos résultats permettent de définir des règles pour synthétiser automatiquement de telles solutions, en fonction uniquement de la taille de la FFT son nombre d'étages plus précisément), et de la taille de la mémoire locale pour un coeur de calcul donné. Les performances obtenues sont supérieures à celles de la bibliothèque native Intel pour CPU), et démontrent un gain important de consommation sur GPU. Tous ces points sont détaillés dans le document de thèse. Ces résultats devraient donner lieu à exploitation au sein de la société Kontron
Multicore architectures Intel Core (IvyBridge, Haswell…) contain both general purpose CPU cores (4) and dedicated GPU cores embedded on the same chip (16 and 40 respectively). As part of the activity of Kontron (the company partially funding this CIFRE scholarship), an important objective is to efficiently compute arrays and sequences of fast Fourier transforms (FFT) such as one finds in radar applications, on this architecture. While native (but proprietary) libraries exist for Intel CPU, nothing is currently available for the GPU part.The aim of the thesis was to define the efficient placement of FFT modules, and to study theoretically the optimal form for grouping computing stages of such FFT according to data locality on a single computing core. This choice should allow processing efficiency, by adjusting the memory size available to the required application data size. Then the multiplicity of cores is exploitable to compute several FFT in parallel, without interference (except for possible bus contention between the CPU and the GPU). We have achieved significant results, both in the implementation of an FFT (1024 points) on a SIMD CPU core, expressed in C, and in the implementation of a FFT of the same size on a GPU SIMT core, then expressed in OpenCL. In addition, our results allow to define rules to automatically synthesize such solutions, based solely on the size of the FFT (more specifically its number of stages), and the size of the local memory for a given computing core. The performances obtained are better than the native Intel library for CPU, and demonstrate a significant gain in consumption on GPU. All these points are detailed in the thesis document
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Muller, Antoine. "Contributions méthodologiques à l'analyse musculo-squelettique de l'humain dans l'objectif d'un compromis précision performance". Thesis, Rennes, École normale supérieure, 2017. http://www.theses.fr/2017ENSR0007/document.

Testo completo
Abstract (sommario):
L'analyse musculo-squelettique est un outil de plus en plus utilisé dans les domaines d'application tels que l'ergonomie, la rééducation ou le sport. Cette analyse permet une estimation des efforts articulaires et des tensions musculaires mises en jeu au cours du mouvement. Les modèles et méthodes que cette analyse exploite conduisent à des résultats de plus en plus réalistes. Cela a pour conséquence de limiter les performances de ces logiciels : le temps de calcul augmente et il est nécessaire de mettre en place des protocoles ainsi que qu’un post-traitement des données long et complexe pour adapter les modèles au sujet. Enfin, de tels logiciels nécessitent une expertise importante des utilisateurs pour être pleinement opérationnels. Ces différents points limitent dans la plupart des cas l'utilisation de ces logiciels au domaine de la recherche.Dans l'objectif de démocratiser l'utilisation des analyses musculo-squelettiques, cette thèse propose des contributions permettant d’améliorer les performances de telles analyses en conservant un bon niveau de précision, ainsi que des contributions permettant une calibration spécifique au sujet des modèles facile à mettre en œuvre. Tout d'abord, dans un souci de maîtrise complète des outils de l’analyse du mouvement, cette thèse développe une approche globale sur l'ensemble des étapes qui la constitue : les étapes de cinématique, de dynamique et d'estimation des efforts musculaires. Pour chacune de ces étapes, des méthodes de résolution en temps rapide ont été proposées. Une méthode de résolution de la question de la répartition des efforts musculaires utilisant une base de données pré-calculée est notamment largement développée. De plus, un processus complet de calibration utilisant uniquement le matériel disponible dans une salle d'analyse de mouvement classique a été développé, où les données utilisées sont issues de capture de mouvement ainsi que de plateformes de force
Musculoskeletal analysis becomes popular in applications fields such as ergonomics, rehabilitation or sports. This analysis enables an estimation of joint reaction forces and muscles tensions generated during motion. Models and methods used in such an analysis give more and more accurate results. As a consequence, performances of software are limited: computation time increases, and experimental protocols and associated post-process are long and tedious to define subject-specific models. Finally, such software need a high expertise level to be driven properly.In order to democratize the use of musculoskeletal analysis for a wide range of users, this thesis proposes contributions enabling better performances of such analyses and preserving accuracy, as well as contributions enabling an easy subject-specific model calibration. Firstly, in order to control the whole analysis process, the thesis is developed in a global approach of all the analysis steps: kinematics, dynamics and muscle forces estimation. For all of these steps, quick analysis methods have been proposed. Particularly, a quick muscle force sharing problem resolution method has been proposed, based on interpolated data. Moreover, a complete calibration process, based on classical motion analysis tools available in a biomechanical lab has been developed, based on motion capture and force platform data
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Bouraoui, Rachid. "Calcul sur les grands nombres et VLSI : application au PGCD, au PGCD étendu et à la distance euclidienne". Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343219.

Testo completo
Abstract (sommario):
Dans le cadre de cette thèse nous avons étudie l'implantation des algorithmes de l'arithmétique en ligne. En particulier, la réalisation de deux circuits destines aux applications exigeant une précision infinie est exposée. En effet, dans de nombreux domaines tels que la génération de nombres aléatoires, cryptographie, calcul formel, arithmétique exacte, réduction de fraction en précision infinie, calcul modulaire, traitement d'images..., les opérateurs classiques manquent d'efficacité. Face a ce type de problèmes, un remède peut être apporte par le calcul en ligne selon lequel les calculs sont faits en introduisant les opérandes en série chiffre a chiffre en notation redondante. Nous obtenons ainsi un haut degré de parallélisme et une précision variable linéairement. Le premier circuit présenté implante un algorithme de pgcd nomme Euclide offrant, d'après les simulations, le meilleur compromis cout matériel/performance. Il donne également les coefficients de Bezout. Ce circuit est appelé a résoudre les problèmes lies au temps de calcul du pgcd par les méthodes classiques rencontrées dans beaucoup d'applications. Une deuxième application montre la possibilité de fusionner des opérateurs en ligne afin d'obtenir un opérateur complexe. L'exemple traite dans cette thèse est celui de la distance euclidienne: z=x#2+y#2 utilisée, entre autres, pour la resolution du moindre carre des systèmes linéaires
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Huber, Vincent. "Contribution au calcul d’écoulements de fluides complexes". Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14579/document.

Testo completo
Abstract (sommario):
La première contribution de cette thèse est l'étude de la modélisation ainsi que de la discrétisation des écoulements multiphasique en géométrie microfluidique. Nous proposons un nouveau schéma d'ordre deux de discrétisation basé sur les méthodes mixtes volumes finis/éléments finis pour le système de Stokes bi-fluides avec tension de surface.Nous présentons alors des comparaison de la précision de ce nouveau schéma avec la discrétisation MAC, en 2D et en 3D-axi. La seconde contribution est relative à l'étude de schémas numériques en temps pour les fluides viscoélastiques. Nous présentons les limites actuelles des modélisations dans ce domaine en étudiant le cas des écoulements de micelles géantes, polymères ayant la capacité de se réorganiser spatialement en fonction du taux de cisaillement. Nous montrons qu'une condition de stabilité liée au ratio de viscosité du polymère et du solvant en temps - très restrictive - existe. Un nouveau schéma est alors proposé pour contourner cette limitation et des études stabilité sont menés pour démontrer nos résultats
The first contribution of this thesis is the analysis and discretization of multiphase flow in a microfluidic framework.We propose a new scheme wich is second order accurate, based on mixed finite volume / finite element method for the two phases Stokes system with surface tension.We then present the comparison of the accuracy of this new scheme with the MAC discretization in 2D and 3D axi.The second contribution is related to the study of numerical schemes in time for viscoelastic fluids.We present the current limitations in this area by studying the case of flows of wormlike micelles, polymers having the ability to reorganize themselves according to the shear rate.We show that a condition of stability related to the ratio of viscosity of the polymer and solvent in time - very restrictive - exists.A new scheme is then proposed to overcome this limitation and stability studies are conducted to demonstrate our results
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Rolland, Luc Hugues. "Outils algébriques pour la résolution de problèmes géométriques et l'analyse de trajectoire de robots parallèles prévus pour des applications à haute cadence et grande précision". Nancy 1, 2003. http://www.theses.fr/2003NAN10180.

Testo completo
Abstract (sommario):
Les robots parallèles sont apparus sur les simulateurs de vol en raison de leurs dynamiques élevées. On cherche à les appliquer maintenant comme machine-outil. Les exigences de précision sont très sévères. Le 1er objectif est de trouver une méthode de résolution des problèmes géométriques. Peu d'implantations ont réussi à résoudre le cas général de la plateforme de Gough. On répertorie 8 formulations algébriques du modèle géométrique. La méthode exacte proposée est fondée sur le calcul de la base de Gröbner et la représentation univariée rationnelle. Cette méthode est trop lente pour la poursuite de trajet. Le 2e objectif est la mise en œuvre d'une méthode itérative numérique (Newton) rapide et certifiée en s'appuyant sur le théorème de Kantorovich et l'arithmétique par intervalle. Le 3e objectif est la faisabilité d'une tache d'usinage. Un simulateur de trajectoire inclut des calculs de précision de l'outil en fonction de la vitesse d'avance. On détermine ainsi l'impact d'une architecture donnée, d'une configuration donnée, des capteurs choisis et de la stratégie de commande. On termine avec une méthode de certification de trajectoire en vérifiant si l'outil peut suivre une trajectoire dans une zone autour de la trajectoire nominale. Un théorème de convergence certifie que l'on peut résoudre le modèle géométrique direct en tout point du tube
Parallel robots have been introduced in flight simulators because of their high dynamics. Research is now focused on their application as machine tools. The requirements on accuracy are more stringent. The first objective is to find a resolution method to kinematics problems. Only a few implementations have succeeded to solve the general case (Gough platform). We have cataloged 8 algebraic formulations for the geometric model. The selected exact method is based the computation of Gröbner bases and the Rational Univariate Representation. The method is too slow for trajectory pursuit. The 2nd objective is the realization of a certified numeric iterative method (Newton) based on the Kantorovich theorem and interval arithmetic. The 3rd objective is milling task feasibility. A trajectory simulator includes tool accuracy estimations with given federate. One can determine the impact of a given architecture, selected sensors and the controller. This thesis terminates by a trajectory certification method, verifying if the tool can follow a trajectory included in a zone around the nominal trajectory. A convergence theorem is applied to insure that the forward kinematics model can be solved everywhere in the tube
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Roch, Jean-Louis. "Calcul formel et parallélisme : l'architecture du système PAC et son arithmétique rationnelle". Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00334457.

Testo completo
Abstract (sommario):
Pac est un système de calcul formel dédié a une machine Mind massivement parallèle. Dans une première partie, l'architecture du système est décrite. Elle est illustrée par une modélisation théorique et pratique de la parallélisation du produit de deux polynômes. Le système Pac est implante sur la machine t40 de Fps (32 processeurs). Dans une deuxième partie, l'arithmétique nodale en précision infinie sur les rationnels est étudiée. Différents algorithmes sont dégagés, notamment pour la multiplication, la division et le pgcd d'entiers de taille quelconque. Une vectorisation de l'arithmétique de base est discutée et expérimentée
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Magaud, Nicolas. "Changements de Représentation des Données dans le Calcul des Constructions". Phd thesis, Université de Nice Sophia-Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-00005903.

Testo completo
Abstract (sommario):
Nous étudions comment faciliter la réutilisation des
preuves formelles en théorie des types. Nous traitons cette question
lors de l'étude
de la correction du programme de calcul de la racine carrée de GMP.
A partir d'une description formelle, nous construisons
un programme impératif avec l'outil Correctness. Cette description
prend en compte tous les détails de l'implantation, y compris
l'arithmétique de pointeurs utilisée et la gestion de la mémoire.
Nous étudions aussi comment réutiliser des preuves formelles lorsque
l'on change la représentation concrète des données.
Nous proposons un outil qui permet d'abstraire
les propriétés calculatoires associées à un type inductif dans
les termes de preuve.
Nous proposons également des outils pour simuler ces propriétés
dans un type isomorphe. Nous pouvons ainsi passer, systématiquement,
d'une représentation des données à une autre dans un développement
formel.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Bosser, Pierre. "Développement et validation d'une méthode de calcul GPS intégrant des mesures de profils de vapeur d'eau en visée multi-angulaire pour l'altimétrie de haute précision". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00322404.

Testo completo
Abstract (sommario):
Le GPS est la technique de positionnement global la plus utilisée ; sa précision planimétrique en mode géodésique atteint le niveau millimétrique. Cependant, une limite importante réside dans la détermination de la composante verticale (3-15~mm pour des sessions de 24~h) dont l'estimation est dégradée par la perturbation de la propagation des signaux lors de la traversée de la troposphère.
L'action NIGPS, menée en collaboration par l'IGN et le SA (CNRS), vise à développer une correction de ces effets atmosphériques basée sur le sondage de l'humidité à l'aide d'un lidar Raman vapeur d'eau à visée multi-angulaire. Ce travail de thèse s'inscrit dans la continuité des travaux présentés en 2005 par Jérôme Tarniewicz et consiste à poursuivre l'étude méthodologique, les développements instrumentaux et la validation expérimentale de l'analyse conjointe des observations GPS et lidar.
Après l'étude à partir de simulations numériques de l'effet de la troposphère sur le GPS et de sa correction, nous nous intéressons à la restitution précise de mesures de vapeur d'eau par lidar Raman. Les données acquises lors de la campagne VAPIC permettent de vérifier l'impact de la troposphère sur le GPS. La comparaison des observations lidar à celles issues d'autres instruments permet de valider la mesure lidar et souligne la capacité de cette technique à restituer des variations rapides de vapeur d'eau. Une première évaluation de la correction des observations GPS par des mesures lidar au zénith est réalisée sur des sessions GPS de 6 h et montre l'apport de cette technique sur les cas considérés. Ces résultats devraient cependant être améliorés grâce la prise en compte de visées lidar obliques.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Vincent, Huber. "Contribution au calcul d'écoulements de fluides complexes". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00745794.

Testo completo
Abstract (sommario):
La première contribution de cette thèse est l'étude de la modélisation ainsi que de la discrétisation des écoulements multiphasiques en géométrie microfluidique. Nous proposons un nouveau schéma d'ordre deux de discrétisation basé sur les méthodes mixtes volumes finis/éléments finis pour le système de Stokes bi-fluides avec tension de surface. Nous présentons alors des comparaison de la précision de ce nouveau schéma avec la discrétisation MAC, en 2D et en 3D-axi. La seconde contribution est relative à l'étude de schémas numériques en temps pour les fluides viscoélastiques. Nous présentons les limites actuelles des modélisations dans ce domaine en étudiant le cas des écoulements de micelles géantes, polymères ayant la capacité de se réorganiser spatialement en fonction du taux de cisaillement. Nous montrons qu'une condition de stabilité liée au ratio de viscosité du polymère et du solvant en temps - très restrictive - existe. Un nouveau schéma est alors proposé pour contourner cette limitation et des études stabilité sont menés pour démontrer nos résultats.
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Hinojosa, Rehbein Jorge Andrés. "Sur la robustesse d'une méthode de décomposition de domaine mixte avec relocalisation non linéaire pour le traitement des instabilités géométriques dans les grandes structures raidies". Thesis, Cachan, Ecole normale supérieure, 2012. http://www.theses.fr/2012DENS0010/document.

Testo completo
Abstract (sommario):
Les travaux de thèse portent sur l'évaluation et la robustesse des stratégies adaptées pour la simulation de grandes structures avec non-linéarités non équitablement réparties, tels le flambage local, et des non-linéarités globales dans les structures aéronautiques. La stratégie dite de « relocalisation non-linéaire » permet l'introduction de schémas de résolution non-linéaire par sous-structure au sein des méthodes de décomposition de domaine classiques.Dans un premier temps, les performances et la robustesse de la méthode sont présentées sur des exemples de structures représentatives des cas industriels. Dans un second temps, la stratégie est complètement parallélisée et des études de « speed-up » et de « extensibilité » sont menées. Enfin, la méthode est testée sur des structures réalistes et de grandes tailles
The thesis work focus on the evaluation and the robustness of adapted strategies for the simulation of large structures with not equitably distributed nonlinearities, like local buckling, and global nonlinearities on aeronautical structures. The nonlinear relocalization strategy allows the introduction of nonlinear solving schemes in the sub-structures of the classical domain decomposition methods.At a first step, the performances and the robustness of the method are analysed on academic examples. Then, the strategy is parallelized and studies of speed-up and extensibility are carried out. Finally, the method is tested on larger and more realistic structures
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Kourdey, Alaa. "Une approche mixte (numérique/équilibre limite) pour le calcul de stabilité des ouvrages en terre : développement et application aux barrages et talus miniers". Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL044N.

Testo completo
Abstract (sommario):
La détermination de la surface de glissement d'un talus (barrage, pente naturelle,. . ) est l'un des problèmes importants et complexes en géotechnique. L'étude de la stabilité par les. Méthodes d'Equilibre Limite, dites méthodes des tranches, sont les méthodes les plus utilisées. Elles permettent de déterminer, pour une surface de rupture définie par sa géométrie, un coefficient de sécurité. Ces méthodes, bien adaptées aux milieux homogènes, ont beaucoup évoluées mais n'intègrent pas les relations de base de la mécanique (contraintes-déformation). Les méthodes numériques sont mieux adaptées aux milieux plus complexes (l'effet de l'eau, sismicité, fracturation,. . ), mais ne sont que rarement utilisées pour déterminer une surface de glissement et un coefficient de sécurité. Chaque famille offre des avantages appréciables dans l'analyse des stabilités de pentes. Pour y parvenir, nous avons développé une méthode combinant les avantages des méthodes numériques avec celles d'Equilibre Limite permettant d'obtenir une surface de glissement déterminée à partir des contraintes calculées. Cette surface peut être imposée (circulaire ou autre) ou de préférence optimisée, fournissant ainsi un coefficient de sécurité minimal. Des méthodes de recherche opérationnelle sont utilisées pour obtenir cette surface. N s'agit des méthodes de recherche par niveau, programmation dynamique,. . Ou les deux à la fois. Nous avons intégré ces développements dans un code de calcul existant basé sur la méthode des Différences Finis dit FLAC. Les contraintes sont déterminées pour un comportement linéaire on non linéaire, des interfaces et des outils graphiques sont également réalisés pour faciliter l'analyse de stabilité. La validation de cette approche a été effectuée pour un cas type de talus, nous avons analysé et comparé les résultats avec les méthodes d'Equilibre Limite. L'étude paramétrique montre que cette approche tient compte des différents paramètres qui influencent la stabilité. Nous avons également gardé une place particulière pour l'application à des cas réels présentant des talus de natures différentes (barrages, talus miniers,. . ).
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Krayani, Abbas. "Approche non locale d'un modèle élasto-plastique endommagable pour le calcul des structures en béton précontraint". Phd thesis, Ecole centrale de nantes - ECN, 2007. http://tel.archives-ouvertes.fr/tel-00334001.

Testo completo
Abstract (sommario):
La connaissance de l'état mécanique du matériau et de son histoire de chargement (en tout point de la structure) est nécessaire pour évaluer l'étanchéité d'un ouvrage de confinement et par conséquent sa durabilité. Un modèle élastoplastique endommageable non local est développé pour reproduire le comportement mécanique du béton. Une méthode de régularisation est introduite sur la partie responsable de l'adoucissement pour éviter les problèmes numériques dus au phénomène de localisation de l'endommagement. La relation constitutive et son implantation numérique sont détaillées. La matrice tangente cohérente est dérivée, où la technique de la différenciation numérique est appliquée pour intégrer la relation constitutive de la plasticité et obtenir une convergence quadratique de la méthode de Newton-Raphson au niveau du point de Gauss et dans la solution du problème d'équilibre mécanique global. Les simulations effectuées ont montré la capacité du modèle à reproduire les comportements structurels classiques et complexes. Les comparaisons avec des modèles d'endommagement isotropes ont permis de mettre en évidence les améliorations apportées par l'introduction de la plasticité: le mode de rupture est correctement simulé (mode I et mode mixte) et la force ultime est en bon accord avec les résultats expérimentaux. Finalement, nous présentons des modifications du modèle d'endommagement non local intégral afin de prendre en considération les effets du bord. Notre justification est basée sur des arguments micromécaniques dans lesquels les interactions entre les microfissures sont diminuées proche du bord libre.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Daumas, Marc. "Contributions à l'arithmétique des ordinateurs : vers une maîtrise de la précision". Phd thesis, Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0012.

Testo completo
Abstract (sommario):
Depuis l'apparition des premiers ordinateurs, l'arithmetique flottante a enormement evolue. La norme ieee 754 a permis de fixer les caracteristiques de l'arithmetique des ordinateurs modernes, mais les scientifiques perdent de plus en plus vite le controle de la validite de leurs calculs. Malgre l'enorme travail associe a la definition des operations, la validation des calculs ne peut toujours pas etre assuree de facon certaine par l'arithmetique implantee sur les ordinateurs. Je presente dans la premiere partie de cette etude deux prolongements qui visent a augmenter la marge de validite des operations: un nouveau mode d'arrondi pour les fonctions trigonometriques et un codage efficace des intervalles accessible facilement a l'utilisateur. L'arithmetique en-ligne permet de gerer efficacement les problemes de precision, mais les operateurs elementaires utilises sont peu adaptes aux architectures modernes de 32 ou 64 bits. L'implantation efficace d'un operateur en-ligne ne peut que passer par la description d'un circuit de bas niveau. Les prediffuses actifs, terme francais utilise pour field programmable gate array, sont des composants speciaux programmables au niveau des portes logiques. Ils permettent d'abaisser les couts de production en evitant de fabriquer un prototype. Nous avons implante grace a ces technologies les operateurs simples de calcul en-ligne: addition, normalisation, etc le noyau arithmetique de calcul en-ligne (nacel) decrit dans ce memoire permet d'implanter les operations arithmetiques usuelles telles que la multiplication, la division, l'extraction de racine carree et les fonctions elementaires trigonometriques et hyperboliques par une approximation polynomiale. Les architectures a flots de donnees sont insensibles aux difficultes sur lesquelles butent les concepteurs des ordinateurs modernes: temps d'acces a la memoire, latence de communication, occupation partielle du pipeline d'instructions. Je decris dans ce document une petite unite de calcul en-ligne (puce). Par une gestion adaptee des etiquettes inspiree pour le controle des donnees de celle utilisee par la manchester data flow machine. Puce reproduit le comportement complet d'une machine a flot de donnees. Elle comprend de plus les operations en-ligne de calcul scientifique. Nous presentons les resultats de simulations sur des calculs divers pour une ou plusieurs unites fonctionnelles
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Boucard, Stéphane. "Calcul de haute précision d'énergies de transitions dans les atomes exotiques et les lithiumoïdes : corrections relativistes, corrections radiatives, structure hyperfine et interaction avec le cortège électronique résiduel". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1998. http://tel.archives-ouvertes.fr/tel-00007148.

Testo completo
Abstract (sommario):
Dans ce mémoire, nous présentons des calculs d'énergie de transition
dans les ions lithiumoïdes et les atomes exotiques : 1) Les nouvelles
sources rendent possible la fabrication d'ions lourds fortement
chargés. Nous nous sommes intéressés à l'étude de la structure
hyperfine des ions lithiumoïdes. Cela nous permet d'examiner les
problèmes relativistes à plusieurs corps et la partie magnétique des
corrections d'Electrodynamique Quantique (QED). Dans les ions lourds,
ces dernières sont de l'ordre de quelques pour-cents par rapport à
l'énergie totale de la transition hyperfine. Nous avons également
évalué l'effet de Bohr-Weisskopf lié à la distribution du moment
magnétique dans le noyau. Nous avons calculé puis comparé ces
différentes contributions en incluant les corrections radiatives
(polarisation du vide et self-énergie) ainsi que l'influence du
continuum négatif. 2) Un atome exotique est un atome dans lequel un
électron du cortège est remplacé par une particule de même charge :
$\mu^(-)$, $\pi^(-)$, $\bar(p)$\ldots Des expériences récentes ont
permis de gagner trois ordres de grandeur en précision et en
résolution. Nous avons voulu améliorer la précision des calculs
d'énergies de transitions nécessaires à la calibration et à
l'interprétation dans deux cas : la mesure de paramètres de
l'interaction forte dans l'hydrogène anti-protonique ($\bar(p)$H) et
la détermination de la masse du pion grâce à l'azote pionique
($\pi$N). Nos calculs prennent en compte la structure hyperfine et le
volume de la distribution de charge de la particule. Nous avons
amélioré le calcul de la polarisation du vide qui ne peut plus être
traitée au premier ordre de la théorie des perturbations dans le cas
des atomes exotiques. Pour les atomes anti-protoniques, nous avons
également ajouté la correction du g-2. Elle provient du caractère
composite de l'anti-proton qui de ce fait possède un rapport
gyromagnétique g $\approx$ -5.5856 .
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Karaseva, Olga. "Déformations élastiques des presses de forgeage et calcul parallèle". Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001513.

Testo completo
Abstract (sommario):
Afin d'améliorer la précision de la simulation numérique des procédés de forgeage à froid, un modèle de raideur de presse de forgeage a été introduit dans le logiciel Forge3®. Les déformations de la structure de la presse sont le résultat combiné du système pièce-outillage-presse qui évolue pendant le procédé de forgeage puisque la géométrie de la pièce évolue aussi. Le principe des puissances virtuelles appliqué à ce système conduit aux équations fortement couplées, qui déterminent les champs de vitesses et de pressions dans la pièce forgée et les outils déformables, mais aussi six vitesses additionnelles de corps rigide représentant les déflections de la presse. La prise en compte de ce modèle dans les applications industrielles s'est avérée justifiée et efficace. La comparaison des résultats des simulations avec des données expérimentales a montré un excellent accord, validant ainsi le modèle utilisé et son implémentation dans Forge3®. La deuxième partie de ce travail concerne le calcul parallèle et plus précisément les méthodes de décomposition de domaine. En se basant sur deux méthodes "classiques", la méthode de complément de Schur et la méthode FETI, nous avons proposé une nouvelle approche hybride, a priori mieux adaptée à la formulation mixte en vitesse/pression caractéristique de Forge3®. Les aspects de pré-conditionnement et de traitement des modes rigides ont également été abordés. Les résultats obtenus lors d'une étude des performances de ces méthodes dans le cadre de Forge3® sont prometteurs.
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Martins, Paulo Chaves de Rezende. "Modélisation du comportement jusqu'à rupture en flexion de poutres en béton à précontrainte extérieure ou mixte". Châtenay-Malabry, Ecole centrale de Paris, 1989. http://www.theses.fr/1989ECAP0096.

Testo completo
Abstract (sommario):
L'utilisation de la précontrainte extérieure au béton se développe chaque jour (en réalité, cette précontrainte est généralement "mixte", associant des câbles extérieurs à des câbles intérieurs solidarisés au béton par injection). Cette nouvelle technique impose que des méthodes fiables de calcul soient mises au point pour les besoins des praticiens. Or les structures avec câblage extérieur présentent des particularités de comportement qui échappent aux méthodes classiques basées sur l'élasticité non-linéaire appliquée aux poutres avec armature intérieure. S'il s'agit de poutres à voussoirs munies ou non d'armatures adhérentes traversant les joints, les problèmes spécifiques au comportement de ces sections sont à prendre en compte. Cette étude a pour objectif de proposer une méthode rationelle de calcul des poutres à précontrainte mixte qui tient en compte des aspects propres aux câbles extérieurs : la variation de tension liée aux déformations de la poutre, la variation d'excentricité entre points de déviation ou d'ancrage et le glissement sur les déviateurs. Le fondement du calcul est l'équilibre d'un élément de poutre compris entre deux fissures (ou joints) compte tenu des particularités de distribution des déformations du béton et de la dégradation de l'adhérence des armatures qui les traversent. La formulation proposée est basée sur les enseignements tirés de la critique de la série 11(onze) poutres essayées dans le cadre de la recherche et sur des propositions existantes dans la littérature tecnhique disponible. La méthode développée a été introduite dans un logiciel de calcul qui a servi aux analyses numériques entreprises. L'étude comprend une analyse comparative entre les résultats du modèle théorique et ceux des essais, qui débouche sur un certain nombre de conclusions et de suggestions de poursuite dans cette voie de recherche. Enfin, des propositions sont faites touchant la règlementation et la pratique des projets.
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Guérin, Pierre. "Méthodes de décomposition de domaine pour la formulation mixte duale du problème critique de la diffusion des neutrons". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00210588.

Testo completo
Abstract (sommario):
La simulation de la neutronique d'un coeur de réacteur nucléaire est basée sur l'équation du transport des neutrons, et un calcul de criticité conduit à un problème à valeur propre. Parmi les méthodes de résolution déterministes, l'approximation de la diffusion est souvent utilisée. Le solveur MINOS basé sur une méthode d'éléments finis mixte duale, a montré son efficacité dans la résolution de ce problème. Afin d'exploiter les ordinateurs parallèles, et de réduire les coûts en temps de calcul et en mémoire, nous proposons dans ce mémoire deux méthodes de décomposition de domaine pour la résolution du problème à valeur propre de la diffusion des neutrons sous forme mixte duale. La première méthode est inspirée d'une méthode de synthèse modale : la solution est cherchée dans une base constituée d'un nombre fini de modes propres locaux calculés par MINOS sur des sous-domaines recouvrants. La deuxième méthode est un algorithme itératif de Schwarz modifié qui utilise des sous-domaines non recouvrants et des conditions de Robin aux interfaces entre sous-domaines. A chaque itération, le problème est résolu par MINOS sur chaque sous-domaine avec des conditions aux interfaces calculées à partir des solutions sur les sous-domaines adjacents à l'itération précédente. Les itérations permettent la convergence simultanée de la décomposition de domaine et du problème à valeur propre. Les résultats numériques obtenus sur des modèles 2D et 3D de coeurs réalistes montrent la précision et l'efficacité en parallèle de ces deux méthodes.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Allart, Emilie. "Abstractions de différences exactes de réseaux de réactions : améliorer la précision de prédiction de changements de systèmes biologiques". Thesis, Lille, 2021. http://www.theses.fr/2021LILUI013.

Testo completo
Abstract (sommario):
Des prédictions de changements pour des réseaux de réactions avec information cinétique partielle peuvent être obtenues par raisonnement qualitatif avec l'interprétation abstraite. Un problème de prédiction classique en biologie systémique est de savoir quels knock-outs de gènes peuvent, ou doivent, augmenter le flux de sortie d'une espèce ciblée à l'état stationnaire. Répondre à une telle question pour un réseau de réactions donné demande de raisonner avec des différences abstraites telles que "augmenter'' et "diminuer''. Une tâche fondamentale pour des prédictions de changements a été présenté par Niehren, Versari, John, Coutte, et Jacques (2016). Il s'agit du problème de calcul de l'abstraction de différences d'un ensemble de solutions positives d'un système d'équations linéaires avec des contraintes de différences non linéaires.Précédemment, des algorithmes de surapproximation pour cette tâche ont été proposé en utilisant différentes heuristiques, par exemple basées sur la réécriture des équations linéaires. Dans cette thèse, nous présentons les premiers algorithmes exacts pouvant résoudre cette tâche pour les deux abstractions de différences utilisées dans la littérature.En guise de première contribution, nous montrons pour un système d'équations linéaires, comment caractériser l'abstraction booléenne de l'ensemble de ces solutions positives. Cette abstraction associe 1 à n'importe quel réel strictement positif, et 0 à 0. La caractérisation est donnée par l'ensemble des solutions booléennes d'un autre système d'équations, qui est obtenu à partir des modes élémentaires. Les solutions booléennes de ce système caractéristique peuvent être calculées en pratique à l'aide de la programmation par contraintes sur les domaines finis. Nous pensons que ce résultat est intéressant pour l'analyse de programmes fonctionnels avec arithmétiques linéaires.Comme seconde contribution, nous présentons deux algorithmes qui calculent, pour un système d'équations linéaires et de contraintes à différences non linéaires donné, l'abstraction de différences en Delta_3 et respectivement en Delta_6.Ces algorithmes s'appuient sur la caractérisation des abstractions booléennes pour les systèmes d'équations linéaires issue de la première contribution. Le lien entre ces abstractions est défini en logique du premier-ordre, tel que l'abstraction peut être calculée par la programmation par contraintes sur les domaines finis également.Nous avons implémenté nos algorithmes exacts et les avons appliqués à la prédiction de knock-outs de gènes qui peuvent mener à une surproduction de leucine dans B.~Subtilis, nécessaire pour la surproduction de surfactine en biotechnologie.Le calcul des prédictions précises avec l'algorithme exact peut tout de même prendre plusieurs heures. Pour cela, nous présentons aussi une nouvelle heuristique, basée sur les modes élémentaires, pour le calcul de l'abstraction de différences. Celle-ci fournit un bon compromis entre précision et efficacité en temps
Change predictions for reaction networks with partial kinetic information can be obtained by qualitative reasoning with abstract interpretation. A typical change prediction problem in systems biology is which gene knockouts may, or must, increase the outflow of a target species at a steady state. Answering such questions for reaction networks requires reasoning about abstract differences such as "increases'' and "decreases''. A task fundamental for change predictions was introduced by Niehren, Versari, John, Coutte, et Jacques (2016). It is the problem to compute for a given system of linear equations with nonlinear difference constraints, the difference abstraction of the set of its positive solutions. Previous approaches provided overapproximation algorithms for this task based on various heuristics, for instance by rewriting the linear equations. In this thesis, we present the first algorithms that can solve this task exactly for the two difference abstractions used in the literature so far. As a first contribution, we show how to characterize for a linear equation system the boolean abstraction of its set of positive solutions. This abstraction maps any strictly positive real numbers to 1 and 0 to 0. The characterization is given by the set of boolean solutions for another equation system, that we compute based on elementary modes. The boolean solutions of the characterizing equation system can then be computed based on finite domain constraint programming in practice. We believe that this result is relevant for the analysis of functional programs with linear arithmetics. As a second contribution, we present two algorithms that compute for a given system of linear equations and nonlinear difference constraints, the exact difference abstraction into Delta_3 and Delta_6 respectively. These algorithms rely on the characterization of boolean abstractions for linear equation systems from the first contribution. The bridge between these abstractions is defined in first-order logic. In this way, the difference abstraction can be computed by finite set constraint programming too. We implemented our exact algorithms and applied them to predicting gene knockouts that may lead to leucine overproduction in B.~Subtilis, as needed for surfactin overproduction in biotechnology. Computing the precise predictions with the exact algorithm may take several hours though. Therefore, we also present a new heuristics for computing difference abstraction based on elementary modes, that provides a good compromise between precision and time efficiency
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Salhi, Yamina. "Étude et réalisation de logiciels d'optimisation non contrainte avec dérivation numérique et estimation de la précision des résultats". Paris 6, 1985. http://www.theses.fr/1985PA066412.

Testo completo
Abstract (sommario):
L'étude de ces logiciels est la suivante: sureté et rapidité de convergence, approximation de la matrice hersienne, contrôle de la propagation des erreurs d'arrondi et vectorisation sur cray-1 du code développé.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Hinojosa, Rehbein Jorge Andres. "Sur la robustesse d'une méthode de décomposition de domaine mixte avec relocalisation non linéaire pour le traitement des instabilités géométriques dans les grandes structures raidies". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00745225.

Testo completo
Abstract (sommario):
Les travaux de thèse portent sur l'évaluation et la robustesse des stratégies adaptées pour la simulation de grandes structures avec non-linéarités non équitablement réparties, tels le flambage local, et des non-linéarités globales dans les structures aéronautiques. La stratégie dite de " relocalisation non-linéaire " permet l'introduction de schémas de résolution non-linéaire par sous-structure au sein des méthodes de décomposition de domaine classiques.Dans un premier temps, les performances et la robustesse de la méthode sont présentées sur des exemples de structures représentatives des cas industriels. Dans un second temps, la stratégie est complètement parallélisée et des études de " speed-up " et de " extensibilité " sont menées. Enfin, la méthode est testée sur des structures réalistes et de grandes tailles.
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Vernet, Raphaël. "Approche mixte théorie / expérimentation pour la modélisation numérique de chambres réverbérantes à brassage de modes". Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/69/11/24/PDF/2006CLF21654.pdf.

Testo completo
Abstract (sommario):
Cette thèse concerne le développement d'une méthodologie pour la modélisation numérique de chambres réverbérantes à brassage de mode (CRBMs). Ce moyen d'essai est utilisé pour les mesures en immunité et en émission de systèmes électroniques dans le domaine de la compatibilité électromagnétique (CEM). L'objectif de ces travaux consiste à proposer une modélisation numérique qui prend en compte un maximum de caractéristiques réelles des CRBMs. L'outil numérique utilisé pour la résolution des équations de Maxwell est la méthode des différences finies dans le domaine temporel. Les caractéristiques géométriques des équipements présents dans les CRBMs sont retranscrites dans le domaine numérique à l'aide de la géométrie discrète qui contrairement aux mailleurs commerciaux permet de contrôler les propriétés topologiques des maillages tridimensionnels obtenus. Les caractéristiques intrinsèques (le facteur de qualité essentiellement) sont intégrées a posteriori via un filtre spécifique appliqué aux solutions temporelles sans perte. Une étude approfondie de l'influence de la source (position, type. . . . ) sur la puissance numérique injectée est également présente. Enfin, ces travaux de thèse se concluent par une confrontation directe entre des résultats numériques et expérimentaux suivant les critères normatifs et statistiques actuels
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Vernet, Raphaël. "Approche mixte théorie / expérimentation pour la modélisation numérique de chambres réverbérantes à brassage de modes". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00691124.

Testo completo
Abstract (sommario):
Cette thèse concerne le développement d'une méthodologie pour la modélisation numérique de chambres réverbérantes à brassage de mode (CRBMs). Ce moyen d'essai est utilisé pour les mesures en immunité et en émission de systèmes électroniques dans le domaine de la compatibilité électromagnétique (CEM). L'objectif de ces travaux consiste à proposer une modélisation numérique qui prend en compte un maximum de caractéristiques réelles des CRBMs. L'outil numérique utilisé pour la résolution des équations de Maxwell est la méthode des différences finies dans le domaine temporel. Les caractéristiques géométriques des équipements présents dans les CRBMs sont retranscrites dans le domaine numérique à l'aide de la géométrie discrète qui contrairement aux mailleurs commerciaux permet de contrôler les propriétés topologiques des maillages tridimensionnels obtenus. Les caractéristiques intrinsèques (le facteur de qualité essentiellement) sont intégrées a posteriori via un filtre spécifique appliqué aux solutions temporelles sans perte. Une étude approfondie de l'influence de la source (position, type....) sur la puissance numérique injectée est également présente. Enfin, ces travaux de thèse se concluent par une confrontation directe entre des résultats numériques et expérimentaux suivant les critères normatifs et statistiques actuels.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Laizet, Sylvain. "Développement d'un code de calcul combinant des schémas de haute précision avec une méthode de frontières immergées pour la simulation des mouvements tourbillonnaires en aval d'un bord de fuite". Poitiers, 2005. http://www.theses.fr/2005POIT2339.

Testo completo
Abstract (sommario):
La réalisation de simulations des mouvements tourbillonnaires en aval d'un bord de fuite reste une tâche difficile en mécanique des fluides. Des développements numériques ont été réalisés à partir d'un code de calcul résolvant les équations de Navier-Stokes incompressibles à l'aide de schémas aux différences finies de haute précision. L'originalité de l'approche numérique réside dans l'utilisation d'une méthode spectrale pour la résolution de l'équation de Poisson qui combinée à une méthode de frontières immergées permet de simuler des écoulements en présence de parois. Un effort particulier a été fait pour l'amélioration de la résolution de l'équation de Poisson afin d'utiliser un maillage inhomogène et une grille décalée pour le champ de pression. Deux écoulements de couche de mélange avec la prise en compte des parois ont été simulés avec un bord de fuite épais puis mince dans le but de déterminer l'influence de la géométrie de la plaque séparatrice sur la dynamique de l'écoulement
To carry out simulations of the vortex dynamics behind a trailing edge remains a difficult task in fluid mechanics. Numerical development has been performed with a computer code which solves the incompressible Navier-Stokes equations with high order compact finite difference schemes on a Cartesian grid. The specificity of this code is that the Poisson equation is solved in the spectral space with the modified spectral formalism. This code can be combined with an immersed boundary method in order to simulate flows with complex geometry. A particular work was made to improve the resolution of the Poisson equation in order to use a stretched mesh and a staggered grid for the pressure. Two mixing layers flows with a blunt and a bevelled trailing edge were performed in order to determinate the influence of the separating plate's shape on the vortex dynamics
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Tan, Pauline. "Précision de modèle et efficacité algorithmique : exemples du traitement de l'occultation en stéréovision binoculaire et de l'accélération de deux algorithmes en optimisation convexe". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX092/document.

Testo completo
Abstract (sommario):
Le présent manuscrit est composé de deux parties relativement indépendantes.La première partie est consacrée au problème de la stéréovision binoculaire, et plus particulièrement au traitement de l'occultation. En partant d'une analyse de ce phénomène, nous en déduisons un modèle de régularité qui inclut une contrainte convexe de visibilité. La fonctionnelle d'énergie qui en résulte est minimisée par relaxation convexe. Les zones occultées sont alors détectées grâce à la pente horizontale de la carte de disparité avant d'être densifiées.Une autre méthode gérant l'occultation est la méthode des graph cuts proposée par Kolmogorov et Zabih. L'efficacité de cette méthode justifie son adaptation à deux problèmes auxiliaires rencontrés en stéréovision, qui sont la densification de cartes éparses et le raffinement subpixellique de cartes pixelliques.La seconde partie de ce manuscrit traite de manière plus générale de deux algorithmes d'optimisation convexe, pour lequels deux variantes accélérées sont proposées. Le premier est la méthode des directions alternées (ADMM). On montre qu'un léger relâchement de contraintes dans les paramètres de cette méthode permet d'obtenir un taux de convergence théorique plus intéressant.Le second est un algorithme de descentes proximales alternées, qui permet de paralléliser la résolution approchée du problème Rudin-Osher-Fatemi (ROF) de débruitage pur dans le cas des images couleurs. Une accélération de type FISTA est également proposée
This thesis is splitted into two relatively independant parts. The first part is devoted to the binocular stereovision problem, specifically to the occlusion handling. An analysis of this phenomena leads to a regularity model which includes a convex visibility constraint. The resulting energy functional is minimized by convex relaxation. The occluded areas are then detected thanks to the horizontal slope of the disparity map and densified. Another method with occlusion handling was proposed by Kolmogorov and Zabih. Because of its efficiency, we adapted it to two auxiliary problems encountered in stereovision, namely the densification of sparse disparity maps and the subpixel refinement of pixel-accurate maps.The second part of this thesis studies two convex optimization algorithms, for which an acceleration is proposed. The first one is the Alternating Direction Method of Multipliers (ADMM). A slight relaxation in the parameter choice is shown to enhance the convergence rate. The second one is an alternating proximal descent algorithm, which allows a parallel approximate resolution of the Rudin-Osher-Fatemi (ROF) pure denoising model, in color-image case. A FISTA-like acceleration is also proposed
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Lagarde, Laurent. "Recherche de méthode simplifiée pour le calcul de poutres multicouches en grandes transformations planes". Phd thesis, Ecole Nationale des Ponts et Chaussées, 2000. http://tel.archives-ouvertes.fr/tel-00838664.

Testo completo
Abstract (sommario):
ETUDE DU COMPORTEMENT D'UNE STRUCTURE MULTICOUCHES EN PETITES PERTURBATIONS, ICI LA POUTRE MULTICOUCHES : IL S'AGIT D'EN PROPOSER LA CONSTRUCTION D'UN MODELE SIMPLIFIE REPOSANT SUR UNE METHODE SYSTEMATIQUE, ET DE PROFITER DES HYPOTHESES SIMPLIFICATRICES REALISEES POUR FORCER LE MODELE A RESTITUER DES INFORMATIONS SUR LES PHENOMENES D'INTERFACES - DANS LA 1ERE PARTIE, LE 1ER CHAPITRE EXPOSE LE POINT DE DEPART, LA MODELISATION MULTIPARTICULAIRE - LE 2D PRESENTE 2 PRINCIPES VARIATIONNELS MIXTES UTILISANT CHACUN UN JEU PROPRE DE VARIABLES INDEPENDANTES DUALES CONTRAINTES-DEFORMATIONS - LE 3EME PRESENTE UNE ETUDE LAGRANGIENNE DE POUTRES DANS LAQUELLE DES CONCEPTS D'EFFORTS GENERALISES CLASSIQUEMENT DEFINIS EN RESISTANCE DES MATERIAUX SONT REECRITS DANS LE CAS DES GRANDES TRANSFORMATIONS SUR LA CONFIGURATION DE REFERENCE - LA 2DE PARTIE EST CONSACREE A LA CONSTRUCTION DU MODELE : PRESENTATION DES HYPOTHESES, EN PARTICULIER DU CHOIX DU PRINCIPE VARIATIONNEL MIXTE QUI SERA UTILISE AINSI QUE DE LA NATURE DES APPROXIMATIONS QUI SERONT INTRODUITES DANS CE PRINCIPE.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Barotto, Béatrice. "Introduction de paramètres stochastiques pour améliorer l'estimation des trajectoires d'un système dynamique par une méthode de moindres carrés : application à la détermination de l'orbite d'un satellite avec une précision centimétrique". Toulouse 3, 1995. http://www.theses.fr/1995TOU30196.

Testo completo
Abstract (sommario):
En presence d'imperfections du modele dynamique, les methodes d'estimation des trajectoires du systeme dynamique, par resolution d'un probleme de moindres carres non lineaire de grande taille, ne permettent pas de profiter de l'extreme precision des mesures faites sur l'etat du systeme. Afin d'estimer plus finement la trajectoire du systeme dynamique, le traitement des erreurs de modeles dans l'algorithme de filtrage-lissage doit etre envisage. Ces erreurs sont prises en compte sous la forme de processus colores dans les equations d'evolution de la dynamique et dans les equations de mesure. Certains parametres des modeles dynamique et de mesure sont alors supposes stochastiques. Afin de resoudre cette classe de probleme de moindres carres non lineaire, une methode de filtrage-lissage a du etre developpee. Elle correspond a une approche de gauss-newton appliquee a un probleme de moindres carres non lineaire qui est linearise au voisinage d'une bonne estimation de la trajectoire du systeme dynamique. Cette methode est developpee dans une formulation racine carree de givens afin d'eviter des problemes d'ordre numerique et inclut le traitement des parametres stochastiques. Cette methode peut s'appliquer a des problemes d'origines diverses. Elle a ete appliquee a la determination de l'orbite du satellite franco-americain d'oceanographie topex/poseidon lance en 1992. En 1995, les methodes classiques permettent d'obtenir une precision de l'ordre de trois centimetres dans la direction radiale a partir des mesures doris et laser. La nouvelle methode permet d'obtenir des orbites de meilleure precision en introduisant une acceleration empirique stochastique agissant sur le satellite. Cette methode a aussi l'avantage d'etre independante de l'altitude du satellite et de traiter n'importe quel type de mesures
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Peou, Kenny. "Computing Tools for HPDA : a Cache-Oblivious and SIMD Approach". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG105.

Testo completo
Abstract (sommario):
Ce travail présente trois contributions aux domaines de la vectorisation des CPU et de l'apprentissage automatique. La première contribution est un algorithme pour calculer une moyenne avec des valeurs en virgule flottante de demi-précision. Dans ce travail réalisé avec un support matériel de demi-précision limité, nous utilisons une bibliothèque logicielle existante pour émuler le calcul de demi-précision. Cela nous permet de comparer la précision numérique de notre algorithme à celle de divers algorithmes couramment utilisés. Enfin, nous effectuons des tests de performance d'exécution en utilisant des valeurs à virgule flottante simples et doubles afin d'anticiper les gains potentiels de l'application de la vectorisation du CPU aux valeurs de demi-précision. Dans l'ensemble, nous constatons que notre algorithme présente des performances numériques légèrement inférieures dans le meilleur des cas en échange de performances numériques nettement supérieures dans le pire des cas, tout en offrant des performances d'exécution similaires à celles d'autres algorithmes. La deuxième contribution est une bibliothèque de calcul en virgule fixe conçue spécifiquement pour la vectorisation du CPU. Les bibliothèques existantes ne reposent pas sur l'auto-vectorisation du compilateur, qui ne parvient pas à vectoriser les opérations arithmétiques de multiplication et de division. De plus, ces deux opérations nécessitent des opérations de cast qui réduisent la vectorisabilité et ont un réel coût de calcul. Pour remédier à ce problème, nous présentons un format de stockage de données en virgule fixe qui ne nécessite aucune opération de cast pour effectuer des opérations arithmétiques. De plus, nous présentons un certain nombre de benchmarks comparant notre implémentation aux bibliothèques existantes et nous présentons la vitesse de vectorisation du CPU sur un certain nombre d'architectures. Dans l'ensemble, nous constatons que notre format en virgule fixe permet des performances d'exécution égales ou supérieures à toutes les bibliothèques comparées. La dernière contribution est un moteur d'inférence de réseau neuronal conçu pour réaliser des expériences en variant les types de données numériques utilisées dans le calcul d'inférence. Ce moteur d'inférence permet un contrôle spécifique à la couche des types de données utilisés pour effectuer l'inférence. Nous utilisons ce niveau de contrôle pour réaliser des expériences visant à déterminer l'agressivité avec laquelle il est possible de réduire la précision numérique utilisée dans l'inférence du réseau neuronal PVANet. Au final, nous déterminons qu'une combinaison des types de données standardisés float16 et bfoat16 est suffisante pour l'ensemble de l'inférence
This work presents three contributions to the fields of CPU vectorization and machine learning. The first contribution is an algorithm for computing an average with half precision floating point values. In this work performed with limited half precision hardware support, we use an existing software library to emulate half precision computation. This allows us to compare the numerical precision of our algorithm to various commonly used algorithms. Finally, we perform runtime performance benchmarks using single and double floating point values in order to anticipate the potential gains from applying CPU vectorization to half precision values. Overall, we find that our algorithm has slightly worse best-case numerical performance in exchange for significantly better worst-case numerical performance, all while providing similar runtime performance to other algorithms. The second contribution is a fixed-point computational library designed specifically for CPU vectorization. Existing libraries fail rely on compiler auto-vectorization, which fail to vectorize arithmetic multiplication and division operations. In addition, these two operations require cast operations which reduce vectorizability and have a real computational cost. To allevieate this, we present a fixed-point data storage format that does not require any cast operations to perform arithmetic operations. In addition, we present a number of benchmarks comparing our implementation to existing libraries and present the CPU vectorization speedup on a number of architectures. Overall, we find that our fixed point format allows runtime performance equal to or better than all compared libraries. The final contribution is a neural network inference engine designed to perform experiments varying the numerical datatypes used in the inference computation. This inference engine allows layer-specific control of which data types are used to perform inference. We use this level of control to perform experiments to determine how aggressively it is possible to reduce the numerical precision used in inferring the PVANet neural network. In the end, we determine that a combination of the standardized float16 and bfloat16 data types is sufficient for the entire inference
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Fontbonne, Cathy. "Acquisition multiparamétrique de signaux de décroissance radioactive pour la correction des défauts instrumentaux : application à la mesure de la durée de vie du 19Ne". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC204/document.

Testo completo
Abstract (sommario):
L’objectif de cette thèse est de proposer une méthode de mesure précise d’une période radioactive de l’ordre de quelques secondes. L’acquisition numérique temps réel FASTER permet d’accéder aux caractéristiques physiques du signal induit par la détection de chaque désintégration lors de la décroissance radioactive. La sélection des données de comptage peut se faire par une analyse optimisée post-expérience. Ainsi, après avoir établi les facteurs d’influence de la mesure (variation d’empilements, de gain des tubes photomultiplicateurs, de la ligne de base électronique), il est possible, a posteriori, de calculer leur impact sur l’estimation de la période radioactive, et de choisir un seuil en énergie déposée, ainsi qu’un temps mort qui minimisent leurs influences. Cette thèse propose, par ailleurs, une méthode pour mesurer, puis compenser les variations de ses grandeurs. Cette méthode a été appliquée pour l’estimation de la période radioactive du 19Ne avec une incertitude relative de 1,2.10-4 : T1/2=17,2569(21) s
The aim of this thesis is to propose a method for precise half-life measurements adapted to nuclides with half-lives of a few seconds. The FASTER real-time digital acquisition system gives access to the physical characteristics of the signal induced by the detection of each decay during the counting period following beam implantation. The selection of the counting data can be carried out by an optimized post-experimental offline analysis. Thus, after establishing the influence factors impacting the measurement (pile up, gain and base line fluctuations), we are able to estimate, a posteriori, their impact on the half-life estimation. This way, we can choose the deposited energy threshold and dead time in order to minimize their effect. This thesis also proposes a method for measuring and then compensating for influence factors variations. This method was applied to estimate the 19Ne half-life with a relative uncertainty of 1.2 10-4 leading to T1 / 2 = 17.2569 (21) s. This is the most precise measurement to date for this isotope
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia