Teses / dissertações sobre o tema "Estimation d’erreur"

Siga este link para ver outros tipos de publicações sobre o tema: Estimation d’erreur.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 17 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Estimation d’erreur".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Allier, Pierre-Eric. "Contrôle d’erreur pour et par les modèles réduits PGD". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN063/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque
Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart
2

Loukkas, Nassim. "Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT040/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation
In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error
3

Mahamane, Amadou. "Analyse et estimation d’erreur en volumes finis. Application aux écoulements en milieu poreux et à l’adaptation de maillage". Paris 13, 2009. http://www.theses.fr/2009PA132008.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans cette thèse nous nous intéressons dans une première partie à la simulation numérique d'un écoulement diphasique en milieu poreux par une méthode de volumes finis adaptatifs. La modélisation proposée par G. CHAVENT, conduisant au couplage d'une famille d'équations elliptiques en pression, et d'une équation de convection-diffusion non linéaire en saturation a été retenue. Nous discrétisons la convection par décentrement et la diffusion par le schéma VFdiamant. Nous montrons la L puissance infinie - stabilité du schéma de discrétisation obtenu dans des cas simples. Nous implémentons ce schéma à l'aide des cas tests académiques sur des maillages non structurés adaptatifs; les résultats obtenus reproduisent ceux de la littérature. La seconde partie de ce travail est consacré à l'étude de certains schémas volumes finis dédiés à l'approximation des opérateurs de diffusion. En particulier, nous considérons les schémas : VFdiamant, DDFV développé par P. Omnes et K. Domelevo, VFmixte dû à J. Droniou et à R. Eymard et CVFE développé par B. Amaziane et M. Afif. Ainsi, l'analyse du schéma VFmixte dans le cadre de l'approximation d'une équation de convection-diffusion-réaction a montré la convergence forte de la solution numériques dans L puissance Q (oméga) pour tout q < 2d /(d-2) et la convergence faible du gradient discret dans L puissance carré (oméga)puissance d ; oméga étant un ouvert de IRexposant d, d=2,3. Une analyse d'erreur a posteriori a également été menée, aussi bien pour le schéma DDFV que pour le schéma VFmixte, dans le cas d'une équation de diffusion. L'implémentation des indicateurs d'erreur pour DDFV a montré leur pertinence en termes de localisation de l'erreur. Nous menons enfin une étude numérique comparative des schémas CVFE, DDFV et VFdiamant dans le cadre de l'approximation de l'équation de la chaleur
The First part of this thesis is devoted to the numerical simulation of two-phase flow in porous media and this has been done by an adaptative finite volume method. Using the global pressure approach proposed by G. Chavent this phenomenon is modeled by a set of elliptic equations in pressure coupled to a convection-diffusion equation in saturation. We use an upwind scheme to discretize a convection part and we approximate the diffusion part using the diamond scheme (VFdiamant). We prove the - stability of this discretization scheme in the pure convection case as well as in the pure diffusion case. The results obtained for some academic test cases on unstructured adaptive two-dimensional grids, are very similar to those contained in the literature. In the second part of the thesis, we study some finite volume schemes devoted to discretization of diffusion operators. Namely, we consider the following schemes: VFdiamant, DDFV developed by P. Omnes and K. Domelevo, VFmixte by J. Droniou and R. Eymard and CVFE developed by B. Amaziane and M. Afif. Thus, the convergence analysis of VFmixte applied to convection-diffusion-reaction equation has been conducted. It has shown the strong convergence of the numerical solution [. . . ] for all and the weak convergence of the discrete gradient [. . . ]. An a posteriori error analysis has also been conducted, for both DDFV and VFmixte, in the case of a diffusion equation. The implementation of error indicators for DDFV shows their efficiency in terms of localization of error. This study has been concluded by a numerical comparison of CVFE, DDFV and VFdiamant applied to theapproximate heat equation
4

Dabaghi, Jad. "Estimations d’erreur a posteriori pour des inégalités variationnelles : application à un écoulement diphasique en milieu poreux". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS076.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans cette thèse, nous considérons des inégalités variationnelles qui s'interprètent comme des équations aux dérivées partielles avec contraintes de complémentarité. Nous construisons des estimateurs d'erreur a posteriori pour des discrétisations utilisant la méthode des éléments finis et volumes finis, et des linéarisations inexactes faisant appel aux méthodes de Newton semi-lisse et à des solveurs algébriques quelconques. Nous considérons tout d'abord un problème modèle de contact entre deux membranes, puis une inégalité variationnelle parabolique et enfin un écoulement diphasique compositionnel avec changement de phases comme application industrielle. Dans le premier chapitre, nous considérons un problème stationnaire de contact entre deux membranes. Ce problème s'inscrit dans la large gamme des inégalités variationnelles de première espèce. Nous discrétisons notre modèle par la méthode des éléments finis conformes d'ordre p ≥ 1 et nous proposons deux formulations discrètes équivalentes~: la première sous la forme d'une inégalité variationnelle et la seconde sous la forme d'un problème de type point-selle. Nous introduisons la différentiabilité au sens de Clarke pour traiter les non linéarités non différentiables. Cela permet d'utiliser des algorithmes de linéarisation de type Newton semi-lisse. Ensuite, un solveur itératif algébrique quelconque est utilisé pour le système linéaire obtenu. En utilisant la méthodologie de la reconstruction des flux équilibrés dans l'espace H(div,Ω), nous obtenons une borne supérieure de l'erreur totale dans la semi-norme d'énergie sur l'espace H01(Ω). Cette borne est entièrement calculable à chaque pas du solveur de linéarisation semi-lisse et à chaque pas du solveur d'algèbre linéaire. Notre estimation d'erreur distingue en particulier les trois composantes de l'erreur, à savoir l'erreur de discrétisation (éléments finis), l'erreur de linéarisation (algorithme de Newton semi-lisse) et l'erreur d'algèbre linéaire (algorithme GMRES). Nous formulons ensuite des critères d'arrêts adaptatifs pour chaque solveur utilisé dans le but de réduire le nombre d'itérations. Nous prouvons également l'efficacité locale de nos estimateurs dans le contexte semi-lisse inexact modulo un terme de contact qui s'avère négligeable. Nos essais numériques illustrent la précision de nos estimations et le gain en terme de nombre d'itérations et témoignent de la performance de notre méthode adaptative semi-lisse inexacte. Dans le second chapitre, nous nous intéressons à construire des estimations d'erreur a posteriori pour une inégalité variationnelle parabolique comme extension du premier chapitre au cas instationnaire. Nous discrétisons notre modèle en utilisant la méthode des éléments finis conformes d'ordre p ≥ 1 en espace et le schéma d'Euler rétrograde en temps. Pour traiter les non linéarités, nous utilisons à nouveau des algorithmes de linéarisation de type Newton semi-lisse et nous employons également un solveur itératif algébrique quelconque pour le système linéaire obtenu. En utilisant la méthodologie de la reconstruction des flux équilibrés dans l'espace H(div,Ω), nous obtenons, quand p=1, et à convergence du solveur de linéarisation semi-lisse et d'algèbre linéaire, une borne supérieure de l'erreur totale dans la norme d'énergie sur l'espace L²(0,T;H01(Ω)). De plus, nous estimons dans ce cas du mieux possible l'erreur en dérivée temporelle dans la norme d'énergie L²(0,T;H^{-1}(Ω)). Dans le cas p ≥ 1, et à un pas quelconque des solveurs linéaires et non linéaires, nous présentons une estimation d'erreur a posteriori dans la norme d'énergie L²(0,T;H01(Ω))). Nous distinguons dans ce cas les composantes de l'erreur totale, à savoir l'erreur de discrétisation, l'erreur de linéarisation et l'erreur d'algèbre linéaire. Cela permet en particulier de formuler des critères d'arrêts adaptatifs dans le but de réduire le nombre d'itérations. Dans le troisième chapitre, [...]
In this thesis, we consider variational inequalities in the form of partial differential equations with complementarity constraints. We construct a posteriori error estimates for discretizations using the finite element method and the finite volume method, for inexact linearizations employing any semismooth Newton solver and any iterative linear algebraic solver. First, we consider the model problem of contact between two membranes, next we consider its extension into a parabolic variational inequality, and to finish we treat a two-phase compositional flow with phase transition as an industrial application. In the first chapter, we consider the stationnary problem of contact between two membranes. This problem belongs to the wide range of variational inequalities of the first kind. Our discretization is based on the finite element method with polynomials of order p ≥ 1, and we propose two discrete equivalent formulations: the first one as a variational inequality, and the second one as a saddle-point-type problem. We employ the Clarke differential so as to treat the nondifferentiable nonlinearities. It enables us to use semismooth Newton algorithms. Next, any iterative linear algebraic solver is used for the linear system stemming from the discretization. Employing the methodology of equilibrated flux reconstructions in the space H(div,Ω), we get an upper bound on the total error in the energy norm H01(Ω). This bound is fully computable at each semismooth Newton step and at each linear algebraic step. Our estimation distinguishes in particular the three components of the error, namely the discretization error (finite elements), the linearization error (semismooth Newton method), and the algebraic error (GMRES algorithm). We then formulate adaptive stopping criteria for our solvers to ultimately reduce the number of iterations. We also prove, in the inexact semismooth context, the local efficiency property of our estimators, up to a contact term that appears negligeable in numerics. Our numerical experiments illustrate the accuracy of our estimates and the reduction of the number of necessary iterations. They also show the performance of our adaptive inexacte semismooth Newton method. In the second chapter, we are interested in deriving a posteriori error estimates for a parabolic variational inequality and we consider the extension of the model of the first chapter to the unsteady case. We discretize our model using the finite element method of order p ≥ 1 in space and the backward Euler scheme in time. To treat the nonlinearities, we use again semismooth Newton algorithms, and we also employ an iterative algebraic solver for the linear system stemming from the discretization. Using the methodology of equilibrated flux reconstructions in the space H(div,Ω), we obtain, when p=1 and at convergence of the semismooth solver and the algebraic solver, an upper bound for the total error in the energy norm L²(0,T; H01(Ω)). Furthermore, we estimate in this case the time derivative error in a norm close to the energy norm L^2(0,T;H^{-1}(Ω)). In the case p ≥ 1, we present an a posteriori error estimate valid at each semismooth Newton step and at each linear algebraic step in the norm L²(0,T;H01(Ω)). We distinguish in this case the components of the total error, namely the discretization error, the linearization error, and the algebraic error. In particular, it enables us to devise adaptive stopping criteria for our solvers which reduces the number of iterations. In the third chapter, [...]
5

Yousef, Soleiman. "Etude d’estimations d’erreur a posteriori et d’adaptivité basée sur des critères d’arrêt et raffinement de maillages pour des problèmes d’écoulements multiphasiques et thermiques : Application aux procédés de récupération assistée d’huile". Paris 6, 2013. http://www.theses.fr/2013PA066616.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénérées multidimensionnelles modélisant des problèmes importants pour l'industrie. Les modèles considérés sont discrétisé en espace par une méthode de volume finis et la méthode d'Euler implicite en temps. Nous démontrons une borne supérieure d’une norme duale du résidu augmentée d'un terme qui tient compte de la non-conformité de la méthode de discrétisation, par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent: un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur d’une résolution algébrique du système linéarisé (par exemple la méthode GMRes), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. Enfin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Des tests numériques illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation, du nombre total des itérations de linéarisation et du nombre total des itérations du solveur algébrique sur des exemples réalistes d'ingénierie de réservoir
The goal of this thesis is the a posteriori error analysis and the conception of adaptive strategies based on stopping criteria and local mesh refinement. We treat a class of multi-dimensional degenerate parabolic equations which represent typical examples of industrial interest. The considered models are discretized by a finite volume scheme in space with the backward Euler temporal stepping. We prove un upper bound for a dual norm of the residual, augmented by a nonconformity evaluation term, by fully computable error estimators. These estimators include: an estimator associated to the linearization error, an estimator associated to the algebraic error, an estimator associated to the temporal error, and an estimator associated to the spatial error. Consequently, these estimators allow to formulate an adaptive resolution algorithm where the corresponding errors can be equilibrated. We also propose a strategy of local mesh reffinement. Finally, we prove the efficiency of our a posteriori estimates. A numerical test illustrates the efficiency of our estimates and the performance of the adaptive algorithm. In particular, a significant gain in terms of the number of mesh cells, the total number of the iterations of the linearization method, and the total number of algebraic solver iterations is achieved on several real-life reservoir engineering examples
6

Parret-Fréaud, Augustin. "Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine". Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0022/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2
The control of the quality of mechanical computations arouses a growing interest in both design and certification processes. It relies on error estimators the use of which leads to often prohibitive additional numerical costs on large computations. The present work puts forward a new procedure enabling to obtain a guaranteed estimation of discretization error in the setting of linear elastic problems solved by domain decomposition approaches. The method relies on the extension of the constitutive relation error concept to the framework of non-overlapping domain decomposition through the recovery of admissible interface fields. Its development within the framework of the FETI and BDD approaches allows to obtain a relevant estimation of discretization error well before the convergence of the solver linked to the domain decomposition. An extension of the estimation procedure to heterogeneous problems is also proposed. The behaviour of the method is illustrated and assessed on several numerical examples in 2 dimension
7

Herrera, Milagros Estefania. "Estimations rigoureuses des erreurs dynamiques dans diverses applications de télédétection : concept, validation et réalisation dans l'algorithme GRASP". Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILR012.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La compréhension des incertitudes dans la restitution des propriétés des aérosols et des surfaces est très importante pour une caractérisation adéquate des processus qui se produisent dans l’atmosphère. Cependant, la caractérisation fiable du bilan d’erreur des produits de restitution est un aspect complexe qui n’est pas encore entièrement résolu dans la plupart des approches de la télédétection. Le niveau d’incertitude pour la majorité des produits de télédétection repose principalement sur des validations post-traitement et des comparaisons avec d’autres données, alors que les erreurs dynamiques sont rarement fournies. Cette étude décrit, analyse et évalue un concept issu de l’algorithme GRASP (Generalized Retrieval of Atmosphere and Surface Properties) dont l’objectif est de fournir les estimations dynamiques des erreurs pour les paramètres restitués. L’approche utilise un concept rigoureux d’optimisation statistique pour estimer les effets de la propagation des incertitudes de mesure sur les résultats de la restitution. Elle tient compte de l’effet des incertitudes aléatoires et systématiques dans les données initiales et fournit des estimations d’erreurs tant pour les paramètres directement restitués inclus dans le vecteur d’état de restitution que pour les caractéristiques dérivées de ces paramètres. L’efficacité du concept d’estimation des erreurs réalisées est analysée en profondeur pour les restitutions GRASP à partir des mesures photomètre et lidar.Les divers aspects des générations et évaluations des estimations d’erreurs sont discutés et illustrés. Ces évaluations ont été réalisées à l’aide de la série exhaustive de tests de sensibilité lorsque des mesures du photomètre et lidar simulées sont perturbées par des erreurs aléatoires et systématiques et inversées. Les résultats des restitutions et leurs estimations d’erreurs obtenues dans les tests sont analysés et évalués. Les essais sont effectués pour les observations de plusieurs types d’aérosols, issus de la combustion de biomasse, urbains, de poussières et leurs mélanges. L’étude tient compte des mesures faites par les photomètres solaires AERONET à 440, 675, 870 et 1020 nm et lidar élastique à 355, 532 et 1064 nm. Les données du photomètre sont inversées seules ou avec les données lidar. L’analyse montre que l’erreur générée estime globalement de façon satisfaisante les incertitudes des différentes caractéristiques des aérosols restitués: distribution en taille, indice de réfraction complexe, albédo à diffusion simple, rapports du lidar, profils verticaux des aérosols, etc.En outre, l’analyse montre que les principales erreurs dynamiques observées concorde bien avec les tendances d’erreurs communément connues par les expériences de restitution. Par exemple, les limites de précision de restitution pour tous types d’aérosols sont associées aux situations de faible épaisseur optique. De plus, pour les observations de mélanges d’aérosols multi-composants, la caractérisation fiable de chaque composant n’est possible que dans des situations limitées, par exemple à partir de données radiométriques obtenues pour des observations à faible angle zénithal solaire ou à partir d’une combinaison de données radiométriques et lidar. Dans le même temps, les propriétés optiques totales des mélanges d’aérosols ont tendance à être toujours restituées de manière satisfaisante. En outre, l’étude comprend l’analyse de la structure détaillée des matrices de corrélation pour les erreurs de restitution des aérosols mono et multi-composants. Cette analyse semble être une approche utile pour optimiser les schémas d’observations et les configurations de récupération. L’illustration de l’application de l’approche développée aux données réelles est fournie pour les observations co-localisées du photomètre et lidar à Buenos Aires. De plus, les résultats préliminaires de l’utilisation des estimations d’erreurs pour la restitution des aérosols à partir des données satellitaires sont fournis
The understanding of the uncertainties in the retrieval of the aerosol and surface properties is very important for an adequate characterization of the processes that occur in the atmosphere. However, the reliable characterization of the error budget of the retrieval products is a very challenging aspect that currently remains not fully resolved in most remote sensing approaches. The level of uncertainties for the majority of the remote sensing products relies mostly on post-processing validations and inter comparisons with other data while the dynamic errors are rarely provided. This study describes, discusses and evaluates a concept realized in GRASP (Generalized Retrieval of Atmosphere and Surface Properties) algorithm for providing the dynamic estimates of uncertainties for retrieved parameters. The approach employs a rigorous concept of statistical optimization for estimating the effects of measurement uncertainties propagation to the retrieval results. The approach accounts for the effect of both random and systematic uncertainties in the initial data and provides error estimates both for directly retrieved parameters included in the retrieval state vector and for the characteristics derived from these parameters. The efficiency of the realized error estimation concept is extensively analyzed for GRASP applications for aerosol retrieval from ground-based observations by sun/sky photometer and lidar. The diverse aspects of the generations and evaluations of the error estimates are discussed and illustrated. The evaluation of the error estimates was realized using the series of comprehensive sensitivity tests when simulated sun/sky photometer measurements and lidar data are perturbed by random and systematic errors and inverted. The results of the retrievals and their error estimations obtained in the tests are analyzed and evaluated. The tests are conducted for the different observations of several types of aerosols including biomass burning, urban, dust and their mixtures. The study considers popular observations by AERONET sun/sky radiometer at 440, 675, 870 and 1020 nm and multi-wavelength elastic lidar at 355, 532 and 1064 nm. The sun/sky radiometer data are inverted aloneor together with lidar data. The analysis shows that the generated error estimates overall satisfactory of the uncertainties of different retrieved aerosol characteristics including aerosol size distribution, complex refractive index, single scattering albedo, lidar ratios, aerosol vertical profiles, etc. Also, the analysis shows that the main observed error dynamic agrees well with the errors tendencies commonly known fromthe retrieval experience. For example, the serious retrieval accuracy limitations for all aerosol types are associated with the situations with low optical depth. Also, for observations of multi-component aerosol mixtures, the reliable characterization of each component is possible only in limited situations, for example from radiometric data obtained for low solar zenith angle observations or from a combination of radiometricand lidar data. At the same time, total optical properties of aerosol mixtures tend to be always retrieved satisfactorily. In addition, the study includes the analysis of the detailed structure of correlation matrices for the retrieval errors of mono- and multi-component aerosols. The conducted analysis of error correlation appears to be a usefulapproach for optimizing observations schemes and retrieval setups. The illustration of the developed approach application to real data is provided for co-located observations of sun/sky photometer and lidar over Buenos Aires. Furthermore, the preliminary results for utilizing the error estimates for the retrieval of aerosol from satellite data are provided
8

Pled, Florent. "Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00776633.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel.
9

Tirvaudey, Marie. "Couplage AIG/MEG pour l'analyse de détails structuraux par une approche non intrusive et certifiée". Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0016/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans le contexte industriel actuel, où la simulation numérique joue un rôle majeur, de nombreux outils sont développés afin de rendre les calculs les plus performants et exacts possibles en utilisant les ressources numériques de façon optimale. Parmi ces outils, ceux non-intrusifs, c’est-à-dire ne modifiant pas les codes commerciaux disponibles mais permettant d’utiliser des méthodes de résolution avancées telles que l’analyse isogéométrique ou les couplages multi-échelles, apparaissent parmi les plus attirants pour les industriels. L’objectif de cette thèse est ainsi de coupler l’Analyse IsoGéométrique (AIG) et la Méthode des Éléments Finis (MEF) standard pour l’analyse de détails structuraux par une approche non-intrusive et certifiée. Dans un premier temps, on développe un lien global approché entre les fonctions de Lagrange, classiquement utilisées en éléments finis et les fonctions NURBS bases de l’AIG, ce qui permet d’implémenter des analyses isogéométriques dans un code industriel EF vu comme une boîte noire. Au travers d’exemples linéaires et non-linéaires implémentés dans le code industriel Code_Aster de EDF, nous démontrons l’efficacité de ce pont AIG\MEF et les possibilités d’applications industrielles. Il est aussi démontré que ce lien permet de simplifier l’implémentation du couplage non-intrusif entre un problème global isogéométrique et un problème local éléments finis. Ensuite, le concept de couplage non-intrusif entre les méthodes étant ainsi possible, une stratégie d’adaptation est mise en place afin de certifier ce couplage vis-à-vis d’une quantité d’intérêt. Cette stratégie d’adaptation est basée sur des méthodes d’estimation d’erreur a posteriori. Un estimateur global et des indicateurs d’erreur d’itération, de modèle et de discrétisation permettent de piloter la définition du problème couplé. La méthode des résidus est utilisée pour évaluer ces erreurs dans des cas linéaires, et une extension aux problèmes non-linéaires via le concept d’Erreur en Relation de Comportement (ERC) est proposée
In the current industrial context where the numerical simulation plays a major role, a large amount of tools are developed in order to perform accurate and effective simulations using as less numerical resources as possible. Among all these tools, the non-intrusive ones which do not modify the existing structure of commercial softwares but allowing the use of advanced solving methods, such as isogeometric analysis or multi-scale coupling, are the more attractive to the industry. The goal of these thesis works is thus the coupling of the Isogeometric Analysis (IGA) with the Finite Element Method (FEM) to analyse structural details with a non-intrusive and certified approach. First, we develop an approximate global link between the Lagrange functions, commonly used in the FEM, and the NURBS functions on which the IGA is based. It’s allowed the implementation of isogeometric analysis in an existing finite element industrial software considering as a black-box. Through linear and nonlinear examples implemented in the industrial software Code_Aster of EDF, we show the efficiency of the IGA\FEM bridge and all the industrial applications that can be made. This link is also a key to simplify the non-intrusive coupling between a global isogeometric problem and a local finite element problem. Then, as the non-intrusive coupling between both methods is possible, an adaptive process is introduced in order to certify this coupling regarding a quantity of interest. This adaptive strategy is based on a posteriori error estimation. A global estimator and indicators of iteration, model and discretization error sources are computed to control the definition of the coupled problem. Residual base methods are performed to estimated errors for linear cases, an extension to the concept of constitutive relation errors is also initiated for non-linear problems
10

Thai, Hoang phuong. "Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN017/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement)
The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models
11

Essongue-Boussougou, Simon. "Méthode des éléments finis augmentés pour la rupture quasi-fragile : application aux composites tissés à matrice céramique". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0018/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Le calcul de la durée de vie des Composites tissés à Matrice Céramique (CMC) nécessite de déterminer l’évolution de la densité de fissures dans le matériau(pouvant atteindre 10 mm-1). Afin de les représenter finement on se propose de travailler à l’échelle mésoscopique. Les méthodes de type Embedded Finite Element (EFEM) nous ont paru être les plus adaptées au problème. Elles permettent une représentation discrète des fissures sans introduire de degrés de liberté additionnels.Notre choix s’est porté sur une EFEM s’affranchissant d’itérations élémentaires et appelée Augmented Finite Element Method (AFEM). Une variante d’AFEM, palliant des lacunes de la méthode originale, a été développée. Nous avons démontré que,sous certaines conditions, AFEM et la méthode des éléments finis classique (FEM) étaient équivalentes. Nous avons ensuite comparé la précision d’AFEM et de FEM pour représenter des discontinuités fortes et faibles. Les travaux de thèse se concluent par des exemples d’application de la méthode aux CMC
Computing the lifetime of woven Ceramic Matrix Composites (CMC) requires evaluating the crack density in the material (which can reach 10 mm-1). Numerical simulations at the mesoscopic scale are needed to precisely estimate it. Embedded Finite Element Methods (EFEM) seem to be the most appropriate to do so. They allow for a discrete representation of cracks with no additional degrees of freedom.We chose to work with an EFEM free from local iterations named the Augmented Finite Element Method (AFEM). Improvements over the original AFEM have been proposed. We also demonstrated that, under one hypothesis, the AFEM and the classical Finite Element Method (FEM) are fully equivalent. We then compare the accuracy of the AFEM and the classical FEM to represent weak and strong discontinuities. Finally, some examples of application of AFEM to CMC are given
12

Maknun, Imam Jauhari. "Évaluation numérique des éléments finis DKMQ pour les plaques et les coques". Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS040/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans le cadre linéaire, les modèles de Mindlin-Reissner pour les plaques épaisses et de Naghdi pour les coques épaisses sont les plus utilisés. Il est connu que la discrétisation par éléments finis de ces modèles conduit à un phénomène de verrouillage numérique quand l’épaisseur tend vers zéro. Il s’agit du verrouillage en cisaillement dans le cas des plaques et du verrouillage en cisaillement et en membrane dans le cas des coques. Il existe quelques éléments finis qui permettent d’éviter ces difficultés ou du moins de les réduire. L’élément DKMQ pour les plaques et sa version DKMQ24 pour les coques, sont des éléments de bas ordre, basés sur une formulation mixte, qui ont été proposés il y a quelques années afin d’éviter ces phénomènes de verrouillage. Dans cette thèse, on s’est attaché à évaluer numériquement les performances de ces éléments. Outre les cas tests classiques, on s’est focalisé sur l’analyse de la condition inf-sup discrète pour l’élément DKMQ. Nous avons étudié également le test de la s-norme proposé par Bathe, pour l’élément DKMQ24. Enfin, nous avons effectué une analyse d’erreur a posteriori pour les éléments DKMQ et DKMQ24, en utilisant l’estimateur d’erreur Z2 (dû à Zienkiewicz et Zhu), associé aux techniques de recouvrement de la moyenne, de projection ou encore SPR. Les résultats obtenus ont permis de quantifier les performances de ces deux éléments finis pour les problèmes de verrouillage, et d’en dégager les limites. Deux applications importantes de ces éléments DKMQ et DKMQ24 ont été ensuite présentées, la première concerne la simulation des poutres à parois minces à section ouverte et la seconde le calcul des plaques composites
In the linear case, the Mindlin-Reissner model for thick plates and the Naghdi model for thick shells are commonly used. The finite element discretization of these models leads to numerical locking phenomenon when the thickness approaches zero : shear locking for plates and both shear and membrane locking for shells. There are some finite elements that could reduce or even eliminate this phenomenon. DKMQ element for plates or DKMQ24 element for shells, are low-order elements, based on a mixed formulation, introduced a few years ago to prevent the numerical locking phenomenon. In this thesis, we concentrated on numerical evaluation of the performance of these elements. Besides the classical benchmark tests, we also focused on the analysis of discrete inf-sup condition for DKMQ element. We studied the s-norm test proposed by Bathe for DKMQ24 element. Finally, we performed a posteriori error estimation for DKMQ and DKMQ24 elements, using the error estimator Z2 (proposed by Zienkiewicz and Zhu), associated with the averaging, projection or SPR recovery methods. The results obtained have enabled us to quantify the performance of these two finite elements for locking problems, and to identify their limits. Two important applications of these elements DKMQ and DKMQ24 were then presented ; the first one concerns thin-walled beams with open cross-section and the second one composite plates
13

Fontana, Ilaria. "Interface problems for dam modeling". Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS020.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les équipes d’ingénierie ont souvent recours aux simulations numériques par éléments finis pour étudier et analyser le comportement des ouvrages hydrauliques de grande dimension. Pour les ouvrages en béton, les modèles doivent être en mesure de prendre en compte le comportement non-linéaire des discontinuités aux diverses zones d’interfaces localisées en fondation, dans le corps du barrage ou à l’interface entre la structure et la fondation. Il faut non seulement être capable de représenter le comportement mécanique non-linéaire de ces interfaces (rupture, glissement, contact), mais également de prendre en compte l’écoulement hydraulique à travers ces ouvertures.Dans le cadre de cette thèse, nous nous focalisons d’abord sur la question du comportement des interfaces, que nous abordons à travers le modèle des zones cohésives (CZM). Ce dernier, introduit dans divers codes de calcul par éléments finis (avec éléments finis de joint), est une approche pertinente pour décrire la physique des problèmes de fissuration et de frottement au niveau de discontinuités géométriques. Bien que le CZM a été initialement introduit pour prendre en compte que le phénomène de rupture, nous montrons dans cette thèse que son utilisation peut être étendue aux problèmes de glissement en s'appuyant sur le formalisme élasto-plastique éventuellement couplé à l'endommagement. En outre, des lois de comportement hydromécaniques non-linéaires peuvent être introduites pour modéliser la notion d’ouverture de fissure et le couplage avec les lois d’écoulement fluide. Au niveau mécanique, nous travaillons dans le cadre des matériaux standard généralisés (SGM), qui fournit une classe de modèles qui satisfont d’une manière automatique des principes de la thermodynamique tout en possédant des bonnes propriétés mathématiques utiles pour la modélisation numérique robuste. Nous adaptons le formalisme SGM volumique à la description des zones d'interface. Dans cette première partie de la thèse, nous présentons nos développements faites dans l'hypothèse de SGM adaptée aux CZM, capable de reproduire les phénomènes physiques observés expérimentalement : rupture, frottement, adhésion.En pratique, les non-linéarités du comportement des zones d’interface sont dominées par la présence de contact, ce qui engendre des difficultés numériques importantes pour la convergence des calculs par élément fini. Le développement de méthodes numériques efficaces pour le problème de contact est donc une étape clé pour atteindre l’objectif de simulateurs numériques industriels robustes. Récemment, l’utilisation de techniques d’imposition faible des conditions de contact à la Nitsche a été proposée comme moyen pour réduire la complexité numérique. Cette technique présente plusieurs avantages, dont les plus importants pour nos travaux sont: 1) possibilité de gérer une vaste gamme de conditions (glissement avec ou sans frottement, non interpénétration, etc); 2) la technique se prête à une analyse d'erreur a posteriori rigoureuse. Ce schéma basé sur les conditions d’interface faibles représente le point de départ pour l’estimation d’erreur a posteriori par reconstruction équilibrée de la contrainte. Cette analyse est utilisée pour estimer les différentes composantes d’erreur (p.e., spatiale, non-linéaire), et pour mettre en place un algorithme de résolution adaptatif, ainsi que des critères d’arrêt pour les solveurs itératifs et le réglage automatique d’éventuels paramètres numériques.L'objectif principal de la thèse est donc de rendre robuste la simulation numérique par éléments finis des ouvrages présentant des discontinuités géométriques. On aborde cette question sous angle double : d’un côté on revisite les méthodes existantes de représentation de fissuration en travaillant sur la loi de comportement mécanique pour les joints ; de l’autre on introduit une nouvelle méthode a posteriori pour traiter le problème de contact et propose son adaptation pour les modèles d’interfaces génériques
Engineering teams often use finite element numerical simulations for the design, study and analysis of the behavior of large hydraulic structures. For concrete structures, models of increasing complexity must be able to take into account the nonlinear behavior of discontinuities at the various interfaces located in the foundation, in the body of the dam or at the interface between structure and foundation. Besides representing the nonlinear mechanical behavior of these interfaces (rupture, sliding, contact), one should also be able to take into account the hydraulic flow through these openings.In this thesis, we first focus on the topic of interface behavior modeling, which we address through the Cohesive Zone Model (CZM). This model was introduced in various finite element codes (with the joint elements), and it is a relevant approach to describe the physics of cracking and friction problems at the geometrical discontinuities level. Although initially the CZM was introduced to take into account the phenomenon of rupture, we show in this thesis that it can be extended to sliding problems by possibly relying on the elasto-plastic formalism coupled to the damage. In addition, nonlinear hydro-mechanical constitutive relations can be introduced to model the notion of crack opening and the coupling with the laws of fluid flow. At the mechanical level, we work in the Standard Generalized Materials (SGM) framework, which provides a class of models automatically satisfying some thermodynamical principles, while having good mathematical and numerical properties that are useful for robust numerical modeling. We adapt the formalism of volumetric SGM to the interface zones description. In this first part of the thesis, we present our developpements under the hypothesis of SGM adapted to CZM, capable of reproducing the physical phenomena observed experimentally: rupture, friction, adhesion.In practice, nonlinearities of behavior of interface zones are dominated by the presence of contact, which generates significant numerical difficulties for the convergence of finite element computations. The development of efficient numerical methods for the contact problem is thus a key stage for achieving the goal of robust industrial numerical simulators. Recently, the weak enforcement of contact conditions à la Nitsche has been proposed as a mean to reduce numerical complexity. This technique displays several advantages, among which the most important for our work are: 1) it can handle a wide range of conditions (slip with or without friction, no interpenetration, etc.); 2) it lends itself for a rigorous a posteriori error analysis. This scheme based on the weak contact conditions represents in this work the starting point for the a posteriori error estimation via equilibrated stress reconstruction. This analysis is then used to estimate the different error components (e.g., spatial, nonlinear), and to develop an adaptive resolution algorithm, as well as stopping criteria for iterative solvers and the automatic tuning of possible numerical parameters.The main goal of this thesis is thus to make the finite element numerical simulation of structures with geometrical discontinuities robust. We address this question from two angles: on one side, we revisit the existing methods for the crack representation working on the mechanical constitutive relation for joints; on the other, we introduce a new a posteriori method for the contact problem and we propose its adaptation for the generic interface models
14

Giacomini, Matteo. "Quantitative a posteriori error estimators in Finite Element-based shape optimization". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX070/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée
Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle
15

Genchev, Svetoslav. "Localisation de robots mobiles dans des environnements inconnus a priori". Compiègne, 2011. http://www.theses.fr/2011COMP1961.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La thèse comporte trois parties - localisation de robots dans en 3D par des mesures de distances entre les robots, estimation de l'incertitude de la position calculée et construction des trajectoires des mouvements des robots afin de réduire au minimum cette incertitude. L'algorithme de planification utilise certains des robots en tant que balises stationnaires guidant les autres robots mobiles, ce qui permet le fonctionnement précis du system à long terme dans les environnements non structurés. Le but principal de la planification n’est pas de construire des trajectoires sans collision, mais de maintenir l'exactitude de positionnement pendant le mouvement. Deux critères importants d'optimalité sont considérés, reliés aux aspects spécifiques du mouvement commun - comment construire la trajectoire caractérisée par précision de mouvement, comment choisir les robots employés comme des balises et comment les placer dans l’espace de travail, afin de former des arrangements géométriques appropriés et ainsi maximiser la précision de localisation. Pour l'estimation de la position, utilisant les mesures de distance, plusieurs méthodologies de calcul sont présentées – une technique en temps réel et simple à calculer et encore deux techniques itératives, plus précises, mais aussi plus complexes à calculer. Les méthodes et leurs caractéristiques statistiques ont été présentées analytiquement, et ensuite comparées numériquement par des simulations graphiques sur ordinateur. L'évaluation d'incertitude est basée sur la méthode Delta, donnant des résultats très satisfaisants, comparés aux estimateurs numériques. La bonne connaissance de l'incertitude de la position est importante pour la fusion des données d'autres sources d’information de position (navigation hybride). En outre, un estimateur d'incertitude (indépendant du nombre de balises utilisées) rapide et différentiable a été proposé. Le maintien de l'incertitude de position bas est le premier critère pour la planification optimale de mouvement. Un deuxième critère a été développé, un estimateur différentiable pour la configuration géométrique des balises, qui ne dépend pas de la position du robot localisé, mais seulement des positions des balises. Les solutions proposées ont été validées expérimentalement par la simulation par ordinateur
This work emphasizes on three utterly related subjects – resolving robot position by distance measurements to other robots, estimating the uncertainty of the computed position and planning the robot’s movement in order to minimize that uncertainty. The planning algorithm uses some of the robots as stationary beacons guiding the robots in motion, thus enabling long-term working in unstructured environments. The main purpose of the planning is not building collision-free paths, but maintaining the positioning accuracy during the motion. Two important optimality criteria are considered, related to specific aspects of the common motion – how to plan trajectories with good movement precision, how to choose which robots to use as beacons and how to position them, in order to form appropriate geometrical arrangements and thus maximize localization precision. To resolve the position, given the distance measurements, we introduce several novel methodologies – one real-time, low-computation technique and another two optimal, computation costly model. The methods and theirs statistical characteristics have been presented analytically, and compared numerically by graphical simulations. The uncertainty estimation is based on the Delta method for uncertainty propagation, which in our case produce very satisfying results, compared to numeric estimators. Good knowledge of the position’s uncertainty is important when combining it with information of other sources, when performing hybrid navigation. Furthermore, a fast and differentiable uncertainty estimator has been found, not depending on the number of beacons used. Maintaining minimal values for the position uncertainty is the first criterion for the optimal motion planning. As a second criterion, we developed a differentiable beacon configuration quality estimator that does not depend on the localized robot but only on the positions of the beacons used. The proposed solutions for the three tasks have been validated experimentally by computer simulation. A simulation platform has been implemented for this purpose. It has been programmed on C++, using the OpenGL graphic library
16

Liu, Hao. "Stratégie de raffinement automatique de maillage et méthodes multi-grilles locales pour le contact : application à l'interaction mécanique pastille-gaine". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4720/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Ce travail de thèse s’inscrit dans le cadre de l’étude de l’Interaction mécanique Pastille-Gaine (IPG) se produisant dans les crayons combustibles des réacteurs à eau pressurisée. Ce mémoire porte sur le développement de méthodes de raffinement de maillage permettant de simuler plus précisément le phénomène d’IPG tout en conservant des temps de calcul et un espace mémoire acceptables pour des études industrielles. Une stratégie de raffinement automatique basée sur la combinaison de la méthode multi-grilles Local Defect Correction (LDC) et l’estimateur d’erreur a posteriori de type Zienkiewicz et Zhu est proposée. Cette stratégie s’appuie sur l’erreur fournie par l’estimateur pour détecter les zones à raffiner constituant alors les sous-grilles locales de la méthode LDC. Plusieurs critères d’arrêt sont étudiés afin de permettre de stopper le raffinement quand la solution est suffisamment précise ou lorsque le raffinement n’apporte plus d’amélioration à la solution globale.Les résultats numériques obtenus sur des cas tests 2D élastiques avec discontinuité de chargement permettent d’apprécier l’efficacité de la stratégie proposée.Le raffinement automatique de maillage dans le cas de problèmes de contact unilatéral est ensuite abordé. La stratégie proposée dans ce travail s’étend aisément au raffinement multi-corps à condition d’appliquer l’estimateur d’erreur sur chacun des corps séparément. Un post-traitement est cependant souvent nécessaire pour garantir la conformité des zones de raffinement vis-à-vis des frontières de contact. Une variété de tests numériques de contact entre solides élastiques confirme l’efficacité et la généricité de la stratégie proposée
This Ph.D. work takes place within the framework of studies on Pellet-Cladding mechanical Interaction (PCI) which occurs in the fuel rods of pressurized water reactor. This manuscript focuses on automatic mesh refinement to simulate more accurately this phenomena while maintaining acceptable computational time and memory space for industrial calculations. An automatic mesh refinement strategy based on the combination of the Local Defect Correction multigrid method (LDC) with the Zienkiewicz and Zhu a posteriori error estimator is proposed. The estimated error is used to detect the zones to be refined, where the local subgrids of the LDC method are generated. Several stopping criteria are studied to end the refinement process when the solution is accurate enough or when the refinement does not improve the global solution accuracy anymore.Numerical results for elastic 2D test cases with pressure discontinuity shows the efficiency of the proposed strategy.The automatic mesh refinement in case of unilateral contact problems is then considered. The strategy previously introduced can be easily adapted to the multibody refinement by estimating solution error on each body separately. Post-processing is often necessary to ensure the conformity of the refined areas regarding the contact boundaries. A variety of numerical experiments with elastic contact (with or without friction, with or without an initial gap) confirms the efficiency and adaptability of the proposed strategy
17

Turbis, Pascal. "Modèles de flammelette en combustion turbulente avec extinction et réallumage : étude asymptotique et numérique, estimation d’erreur a posteriori et modélisation adaptative". Thèse, 2011. http://hdl.handle.net/1866/4916.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
We are interested here in the modeling errors of subgrid flamelet models in nonpremixed turbulent combustion. The goal of this thesis is to develop an a posteriori error estimation strategy to determine the best model within a hierarchy, with a numerical cost at most that of using the models in the first place. Firstly, we develop and test a dual-weighted residual estimator strategy on a system of advection-diffusion-reaction equations. Secondly, we test that methodology on another system of equations, where quenching and ignition effects are added. In the absence of advection, a rigorous asymptotic analysis shows the existence of many combustion regimes already observed in numerical simulations. We obtain approximations of the quenching and ignition parameters, alongside the S-shaped curve, a plot of the maximal flame temperature as a function of the Damköhler number, consisting of three branches and two bends. When advection effects are added, we still obtain a S-shaped curve corresponding to the known combustion regimes. We compare the modeling errors of the asymptotic approximations in the two stable regimes and establish new model hierarchies for each combustion regime. These errors are compared with the estimations obtained by using the error estimation strategy. When only one stable combustion regime exists, the error estimator correctly identifies that regime; when two or more regimes are possible, it gives a systematic way of choosing one regime. For regimes where more than one model is appropriate, the error estimator’s predicted hierarchy is correct.

Vá para a bibliografia