Auswahl der wissenschaftlichen Literatur zum Thema „Estimation d’erreur“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Estimation d’erreur" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Estimation d’erreur":

1

Destuynder, Philippe. „Une nouvelle estimation d’erreur en éléments finis“. Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 327, Nr. 4 (August 1998): 409–14. http://dx.doi.org/10.1016/s0764-4442(99)80058-5.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

de la Bretèche, Régis, und Gérald Tenenbaum. „Sur la conjecture de Manin pour certaines surfaces de Châtelet“. Journal of the Institute of Mathematics of Jussieu 12, Nr. 4 (08.03.2013): 759–819. http://dx.doi.org/10.1017/s1474748012000886.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
RésuméNous démontrons, sous la forme forte conjecturée par Peyre, la conjecture de Manin pour les surfaces de Châtelet dont les équations sont du type ${y}^{2} + {z}^{2} = P(x, 1)$, où $P$ est une forme binaire quartique à coefficients entiers irréductible sur $ \mathbb{Q} [i] $ ou produit de deux formes quadratiques à coefficients entiers irréductibles sur $ \mathbb{Q} [i] $. De plus, nous fournissons une estimation explicite du terme d’erreur de la formule asymptotique sous-jacente. Cela finalise essentiellement la validation de la conjecture de Manin pour l’ensemble des surfaces de Châtelet. La preuve s’appuie sur deux méthodes nouvelles, concernant, du part, les estimations en moyenne d’oscillations locales de caractères sur les diviseurs, et, d’autre part, les majorations de certaines fonctions arithmétiques de formes binaires.
3

Tremblay, Marc. „Vérification de deux méthodes d’estimation indirecte de la mortalité“. Articles 12, Nr. 1 (31.10.2008): 51–82. http://dx.doi.org/10.7202/600490ar.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
RÉSUMÉ L’utilisation de méthodes d’estimation s’avère souvent indispensable pour étudier la mortalité de populations pour lesquelles les données nécessaires sont déficientes. Mais, quelle confiance peut-on accorder à ces méthodes? Jusqu’à quel point sont-elles efficaces et quelles sont les marges d’erreur qu’elles comportent? Le présent article examine deux méthodes d’estimation indirecte de la mortalité : la méthode de Bourgeois-Pichat (estimation de l’espérance de vie à la naissance), et celle utilisée par Bourbeau et Légaré (Bourbeau et Légaré, 1982), qui consiste à estimer, pour une population donnée, certains indices de mortalité du passé en utilisant le décalage (en années de calendrier) observé à une époque récente entre cette population et certaines autres populations (méthode des écarts). Nous appliquons ces méthodes aux données de la Norvège pour la période 1826-1976. Les résultats sont ensuite mis en comparaison avec les données observées pour la même période. À partir de ces applications et comparaisons, nous faisons une évaluation de chacune des méthodes, en faisant ressortir les avantages et les inconvénients qui les caractérisent. Nous mettons toutefois l’accent sur la méthode des écarts, dont l’utilisation par Bourbeau et Légaré est la première du genre pour estimer certains indices de mortalité du passé.
4

Allen, V. M., L. Dodds, A. Spencer, E. A. Cummings, N. MacDonald und G. Kephart. „Pertinence d'une définition de cas administrative pour l'identification du diabète sucré préexistant à la grossesse“. Maladies chroniques et blessures au Canada 32, Nr. 3 (Juni 2012): 127–35. http://dx.doi.org/10.24095/hpcdp.32.3.01f.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Introduction La détermination précise des cas de grossesse avec diabète préexistant permet d’exercer une surveillance complète des résultats maternels et néonatals associés à cette maladie chronique. Méthodologie Afin de déterminer la pertinence de certaines définitions de cas pour le diabète sucré préexistant lorsqu’on les applique à une population de femmes enceintes, nous avons constitué une cohorte de femmes qui étaient enceintes entre 1991 et 2003 en Nouvelle-Écosse, à partir d’une base de données périnatales provinciale et populationnelle, la Nova Scotia Atlee Perinatal Database (NSAPD). Nous avons associé à cette cohorte des données individuelles issues des bases de données administratives utilisant les données des dossiers de congé des hôpitaux ainsi que les données provenant des services médicaux externes. Nous avons comparé à la définition de référence de la NSAPD divers algorithmes de définition du diabète sucré fondés sur des données administratives, dont l’algorithme proposé par le Système national de surveillance du diabète (SNSD). Résultats L’application de la définition de cas du SNSD à cette population de femmes enceintes a révélé une sensibilité de 87 % et une valeur prédictive positive (VPP) de 66,4 %. Quand on a utilisé les codes de diagnostic de la CIM-9 et de la CIM-10 dans les cas d’hospitalisation avec diabète sucré au cours de la grossesse, la sensibilité et la VPP ont augmenté sensiblement, surtout dans le cas des accouchements effectués dans les centres de soins tertiaires. Pour cette population, les données administratives relatives à la grossesse provenant uniquement de la base de données sur les hospitalisations semblent constituer une source de données plus exacte pour l’identification du diabète préexistant que l’application de la définition de cas du SNSD, particulièrement lorsque les femmes accouchent dans un hôpital de soins tertiaires. Conclusion Même si la définition du diabète établie par le SNSD donne d’assez bons résultats par rapport à une définition de référence de base du diabète, le recours à cette définition pour évaluer les résultats maternels et périnatals associés au diabète durant la grossesse se traduira par un certain degré d’erreur de classification et, par conséquent, par une estimation biaisée des résultats.
5

CHERTEL, Amani, Anis EL AMMARI und Chokri TERZI. „Impact de la structure de propriété sur la politique de dividendes“. Journal of Academic Finance 11, Nr. 2 (31.12.2020): 260–79. http://dx.doi.org/10.59051/joaf.v11i2.424.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Cet article examine les effets de la structure de propriété sur la politique de dividende pour sept entreprises cotées en bourse de Tunis durant la période 1996 et 2017. Le modèle utilisé dans cette étude inclus la taille et la tangibilité comme variables de contrôle. Afin de tester la présence d’une relation d’association à long terme entre les variables, les tests de racine unitaire et de cointégration on été élaborés. Selon les résultats de ces tests, l’étude vise l’estimation d’un modèle de vecteur à correction d’erreur VECM pour un panel à l’aide des méthodes de régression en présence de cointégration DOLS et FMOLS. Un résultat remarquable des estimations de long terme, la concentration de propriété a un effet négatif et significatif contrairement aux autres effets qui sont positifs et significatifs sur la politique de dividende. À court terme, la tangibilité a un effet positif et significatif. La valeur des termes de correction d’erreur permet d’apprécier une vitesse d’ajustement vers l’équilibre de long terme qui dépasse 65%.
6

Van Norden, Simon. „Filtres pour l’analyse courante“. Articles 80, Nr. 2-3 (24.10.2005): 523–46. http://dx.doi.org/10.7202/011398ar.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Résumé L’auteur montre comment les techniques actuelles de filtrage passe-bande et leurs prolongements peuvent servir à estimer des tendances et des cycles courants. Ces techniques donnent des estimations jugées « optimales » compte tenu des données disponibles. Les erreurs types s’y rattachant représentent donc la borne inférieure de la marge d’erreur qui serait associée aux résultats produits par d’autres techniques univariées. Dans cette étude, l’auteur examine les applications de ce filtre aux problèmes que pose l’estimation de la croissance de la productivité, de l’inflation de base et de l’écart de production observés.
7

SANON, Jean. „Effet de la politique monétaire de pilotage des taux d’intérêt sur l’offre de crédit bancaire dans l’Union Économique et Monétaire Ouest Africaine“. Revue d’Economie Théorique et Appliquée 13, Nr. 1 (30.06.2023): 115–34. http://dx.doi.org/10.62519/reta.v13n1a7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Résumé : L’objectif de ce papier est d’expliquer le paradoxe existant entre l’assouplissement continu de la politique monétaire appliquée dans l’Union Economique et Monétaire Ouest Africaine (UEMOA) et le faible niveau de financement bancaire des économies de l’Union. Au moyen d’un estimateur à correction d’erreur obtenu par la méthode Pooled Mean Group (PMG), l’article montre que la variation, par la Banque Centrale des Etats de l’Afrique de l’Ouest (BCEAO), du taux du marché monétaire est sans effet significatif sur l’offre de crédit bancaire à l’économie. Il établit, également, que le crédit bancaire se contracte quand le taux auquel les banques financent les activités économiques augmente. Enfin, le papier révèle que l’offre de crédit bancaire est dépendante des facteurs internes aux banques. En somme, l’article démontre que l’instrument monétaire utilisé par la BCEAO semble insuffisant pour assurer efficacement la transmission de la politique monétaire au secteur réel dans l’Union. Mots clés : Politique monétaire, Banque Centrale, Taux Directeur, offre de crédit. Effect of the monetary policy of steering interest rates on the supply of bank credit in the West African Economic and Monetary Union Summary: The objective of this paper is to explain the paradox between the continuous easing of the monetary policy applied in the West African Economic and Monetary Union (UEMOA) and the low level of bank financing of the economies of the Union. Using an error-correction estimator obtained by the Pooled Mean Group (PMG) method, the paper shows that the variation, by the Central Bank of West African States (BCEAO), of the rate of the money market has no significant effect on the supply of bank credit to the economy. It also establishes that bank credit contracts when the rate at which banks finance economic activities increases. Finally, the paper reveals that the supply of bank credit is dependent on factors internal to banks. In sum, the article demonstrates that the monetary instrument used by the BCEAO seems insufficient to effectively ensure the transmission of monetary policy to the real sector in the Union. Keywords: Monetary policy, Central Bank, Policy rate, credit supply JEL Classification : E52 - E58 - F45.
8

Nguyen, Xuan Son, Frédéric Duprat, Alain Sellier und Gérard Pons. „Méthode du gradient projeté avec contrôle d’erreur“. European Journal of Computational Mechanics, 11.06.2008, 1039–56. http://dx.doi.org/10.13052/emn.17.1039-1056.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Probabilistic approaches are today frequently used in the design of new civil engineering structures and durability analysis of existing constructions. The so-called Hasofer-Lind’s reliability index is the most popular reliability measure in design codes. This index can be determined by several minimizations under constraint algorithms, such as Rackwitz-Fiessler’s algorithm which is based on the projected gradient method. The drawback of this method lies in the estimation of the gradient vector of the limit state function which is often carried out by finite differences. If the perturbation chosen for this estimation gives a variation of the result lower than the accuracy of the limit state function, the algorithm could give erroneous results, not even to converge. In order to circumvent this drawback, we propose a method called projected gradient method with error control. The principle is to add to Rackwitz-Fiessler’s algorithm a procedure for choosing judiciously the perturbation for calculating the gradient vector accounting for the numerical accuracy of the limit state function. The efficiency of the proposed method can be judged from examples taken from the literature.
9

Amri, Myriam, Lukas Spiegelhofer und Jörg Thuswaldner. „Répartition jointe dans les classes de résidus de la somme des chiffres pour deux représentations d’Ostrowski“. International Journal of Number Theory, 28.10.2021, 1–22. http://dx.doi.org/10.1142/s1793042122500506.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Résumé. Pour deux entiers [Formula: see text], nous posons [Formula: see text] et [Formula: see text] (où [Formula: see text]) et nous notons respectivement [Formula: see text] et [Formula: see text] les fonctions sommes des chiffres dans les [Formula: see text] et [Formula: see text]-représentations d’Ostrowski de [Formula: see text]. Soient [Formula: see text] des entiers positifs tels que [Formula: see text] et [Formula: see text], nous obtenons une estimation en [Formula: see text] avec un terme d’erreur [Formula: see text] pour le cardinal de l’ensemble suivant [Formula: see text] pour tous les entiers [Formula: see text] et [Formula: see text] Notre résultat peut être comparé à celui de Bésineau et Kim qui ont traité le cas des [Formula: see text]-représentations dans différentes bases (qui sont premières entre elles). For two distinct integers [Formula: see text], we set [Formula: see text] and [Formula: see text] (where [Formula: see text] is the continued fraction [Formula: see text]) and we let [Formula: see text] and [Formula: see text] denote respectively, the sum of digits functions in the Ostrowski [Formula: see text] and [Formula: see text]-representations of [Formula: see text]. Let [Formula: see text] be positive integers satisfying [Formula: see text] and [Formula: see text], we obtain an estimation [Formula: see text] with an error term [Formula: see text] for the cardinality of the following set [Formula: see text] for all integers [Formula: see text] and [Formula: see text] Our result should be compared to that of Bésineau and Kim who addressed the case of the [Formula: see text]-representations in different bases (that are coprime).
10

Bodart, Vincent, Thomas Lambert, Philippe Ledent und Vincent Scourneau. „Numéro 62 - octobre 2008“. Regards économiques, 12.10.2018. http://dx.doi.org/10.14428/regardseco.v1i0.15623.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
En 2001, le gouvernement Verhoofstad II a décidé une importante réforme de l’impôt des personnes physique (IPP) dans le but de réduire de façon permanente la charge de l’impôt qui pèse sur les ménages en Belgique. Cette réforme vient en complément de plusieurs mesures de réduction de l’IPP prises au cours des années antérieures. La mise en place de la réforme s’est étalée entre 2002 et 2007, avec un effet important sur la charge de l’impôt supportée par les ménages en 2006. Dans ce numéro de Regards économiques, nous avons tenté de déterminer l’impact que la réforme fiscale de 2002, combinée aux mesures de réduction de l’IPP prises au cours des années antérieures, a pu avoir sur le total des dépenses de consommation des ménages belges (que l’on dénomme plus simplement la «consommation privée»). Pour ce faire, l’approche que nous avons suivie a consisté à construire un modèle de la consommation privée, à estimer ce modèle à l’aide de méthodes économétriques classiques et à utiliser ensuite les estimations obtenues pour déterminer quelle aurait été l’évolution des dépenses de consommation des ménages belges après 2002 dans le cadre d’un scénario contrefactuel où l’on suppose que le taux de pression fiscale est inchangé après 2002. Dans la mesure où la baisse du taux d’imposition des ménages n’apparaît véritablement qu’à partir de 2006, nous avons concentré notre estimation de l’impact de la réforme fiscale sur la période 2006-2007. Selon notre analyse, il y a de fortes chances que l’effet combiné des différentes mesures de réduction de la pression fiscale des ménages sur la consommation des ménages fut positif. Nos estimations suggèrent en effet que ces mesures ont eu pour conséquence de relever de 2,8 points de pourcentage le taux de croissance de la consommation privée sur la totalité de la période 2006-2007. En montants absolus, ces résultats correspondent à une hausse de la consommation privée de 5,5 milliards d’€ sur la période 2006-2007. Nos estimations montrent également que l’essentiel de l’impact a lieu en 2006, soit l’année au cours de laquelle la pression fiscale a sensiblement baissé en Belgique ; le taux de croissance de la consommation est en revanche très peu modifié en 2007. La réforme fiscale a donc eu un impact de très courte durée sur le niveau de la croissance économique. L’ampleur de l’impact mentionné ci-dessus doit être considérée avec une certaine réserve. Ayant été déterminé en simulant un modèle économétrique, il est inévitablement entouré d’une marge d’erreur. En considérant par exemple une marge d’erreur de 10 %, nous montrons que l’effet estimé de la réforme fiscale est compris dans un intervalle de confiance dont la limite supérieure correspond à un relèvement induit de la consommation privée de 13,5 milliards d’€ sur la période 2006-2007 et dont la limite inférieure correspond à un abaissement induit de la consommation privée de 2,2 milliards d’€ sur la même période. Nous devons donc admettre que, d’un point de vue statistique, notre estimation de l’effet de la réforme fiscale est assez peu précis. Il se peut ainsi que, d’un côté, l’impact de la réforme fiscale ait été plus grand que le chiffre de 5,5 milliards d’€. D’un autre côté, on ne peut pas exclure la possibilité que la réforme fiscale a entraîné une diminution, plutôt qu’une hausse, de la consommation des ménages, même si cette éventualité est très peu probable d’après nos estimations statistiques. Comme implication de politique économique, nous en concluons qu’il est erroné de croire qu’une réforme fiscale en Belgique a nécessairement un impact favorable sur l’activité économique, ce qui est d’ailleurs conforme aux enseignements de la théorie économique sur le sujet. En marge des résultats concernant l’impact de la réforme fiscale, notre étude a montré que, à l’instar de ce qui a déjà été mis en évidence pour d’autres pays européens, les variations de l’emploi ont un impact plus important sur la consommation privée que les variations du salaire. Ce résultat suggère que, par rapport à un objectif de stimulation de la croissance économique, les politiques économiques visant à soutenir la création d’emplois sont probablement plus indiquées que celles visant à soutenir le pouvoir d’achat.

Dissertationen zum Thema "Estimation d’erreur":

1

Allier, Pierre-Eric. „Contrôle d’erreur pour et par les modèles réduits PGD“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN063/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque
Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart
2

Loukkas, Nassim. „Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT040/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation
In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error
3

Mahamane, Amadou. „Analyse et estimation d’erreur en volumes finis. Application aux écoulements en milieu poreux et à l’adaptation de maillage“. Paris 13, 2009. http://www.theses.fr/2009PA132008.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Dans cette thèse nous nous intéressons dans une première partie à la simulation numérique d'un écoulement diphasique en milieu poreux par une méthode de volumes finis adaptatifs. La modélisation proposée par G. CHAVENT, conduisant au couplage d'une famille d'équations elliptiques en pression, et d'une équation de convection-diffusion non linéaire en saturation a été retenue. Nous discrétisons la convection par décentrement et la diffusion par le schéma VFdiamant. Nous montrons la L puissance infinie - stabilité du schéma de discrétisation obtenu dans des cas simples. Nous implémentons ce schéma à l'aide des cas tests académiques sur des maillages non structurés adaptatifs; les résultats obtenus reproduisent ceux de la littérature. La seconde partie de ce travail est consacré à l'étude de certains schémas volumes finis dédiés à l'approximation des opérateurs de diffusion. En particulier, nous considérons les schémas : VFdiamant, DDFV développé par P. Omnes et K. Domelevo, VFmixte dû à J. Droniou et à R. Eymard et CVFE développé par B. Amaziane et M. Afif. Ainsi, l'analyse du schéma VFmixte dans le cadre de l'approximation d'une équation de convection-diffusion-réaction a montré la convergence forte de la solution numériques dans L puissance Q (oméga) pour tout q < 2d /(d-2) et la convergence faible du gradient discret dans L puissance carré (oméga)puissance d ; oméga étant un ouvert de IRexposant d, d=2,3. Une analyse d'erreur a posteriori a également été menée, aussi bien pour le schéma DDFV que pour le schéma VFmixte, dans le cas d'une équation de diffusion. L'implémentation des indicateurs d'erreur pour DDFV a montré leur pertinence en termes de localisation de l'erreur. Nous menons enfin une étude numérique comparative des schémas CVFE, DDFV et VFdiamant dans le cadre de l'approximation de l'équation de la chaleur
The First part of this thesis is devoted to the numerical simulation of two-phase flow in porous media and this has been done by an adaptative finite volume method. Using the global pressure approach proposed by G. Chavent this phenomenon is modeled by a set of elliptic equations in pressure coupled to a convection-diffusion equation in saturation. We use an upwind scheme to discretize a convection part and we approximate the diffusion part using the diamond scheme (VFdiamant). We prove the - stability of this discretization scheme in the pure convection case as well as in the pure diffusion case. The results obtained for some academic test cases on unstructured adaptive two-dimensional grids, are very similar to those contained in the literature. In the second part of the thesis, we study some finite volume schemes devoted to discretization of diffusion operators. Namely, we consider the following schemes: VFdiamant, DDFV developed by P. Omnes and K. Domelevo, VFmixte by J. Droniou and R. Eymard and CVFE developed by B. Amaziane and M. Afif. Thus, the convergence analysis of VFmixte applied to convection-diffusion-reaction equation has been conducted. It has shown the strong convergence of the numerical solution [. . . ] for all and the weak convergence of the discrete gradient [. . . ]. An a posteriori error analysis has also been conducted, for both DDFV and VFmixte, in the case of a diffusion equation. The implementation of error indicators for DDFV shows their efficiency in terms of localization of error. This study has been concluded by a numerical comparison of CVFE, DDFV and VFdiamant applied to theapproximate heat equation
4

Dabaghi, Jad. „Estimations d’erreur a posteriori pour des inégalités variationnelles : application à un écoulement diphasique en milieu poreux“. Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS076.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Dans cette thèse, nous considérons des inégalités variationnelles qui s'interprètent comme des équations aux dérivées partielles avec contraintes de complémentarité. Nous construisons des estimateurs d'erreur a posteriori pour des discrétisations utilisant la méthode des éléments finis et volumes finis, et des linéarisations inexactes faisant appel aux méthodes de Newton semi-lisse et à des solveurs algébriques quelconques. Nous considérons tout d'abord un problème modèle de contact entre deux membranes, puis une inégalité variationnelle parabolique et enfin un écoulement diphasique compositionnel avec changement de phases comme application industrielle. Dans le premier chapitre, nous considérons un problème stationnaire de contact entre deux membranes. Ce problème s'inscrit dans la large gamme des inégalités variationnelles de première espèce. Nous discrétisons notre modèle par la méthode des éléments finis conformes d'ordre p ≥ 1 et nous proposons deux formulations discrètes équivalentes~: la première sous la forme d'une inégalité variationnelle et la seconde sous la forme d'un problème de type point-selle. Nous introduisons la différentiabilité au sens de Clarke pour traiter les non linéarités non différentiables. Cela permet d'utiliser des algorithmes de linéarisation de type Newton semi-lisse. Ensuite, un solveur itératif algébrique quelconque est utilisé pour le système linéaire obtenu. En utilisant la méthodologie de la reconstruction des flux équilibrés dans l'espace H(div,Ω), nous obtenons une borne supérieure de l'erreur totale dans la semi-norme d'énergie sur l'espace H01(Ω). Cette borne est entièrement calculable à chaque pas du solveur de linéarisation semi-lisse et à chaque pas du solveur d'algèbre linéaire. Notre estimation d'erreur distingue en particulier les trois composantes de l'erreur, à savoir l'erreur de discrétisation (éléments finis), l'erreur de linéarisation (algorithme de Newton semi-lisse) et l'erreur d'algèbre linéaire (algorithme GMRES). Nous formulons ensuite des critères d'arrêts adaptatifs pour chaque solveur utilisé dans le but de réduire le nombre d'itérations. Nous prouvons également l'efficacité locale de nos estimateurs dans le contexte semi-lisse inexact modulo un terme de contact qui s'avère négligeable. Nos essais numériques illustrent la précision de nos estimations et le gain en terme de nombre d'itérations et témoignent de la performance de notre méthode adaptative semi-lisse inexacte. Dans le second chapitre, nous nous intéressons à construire des estimations d'erreur a posteriori pour une inégalité variationnelle parabolique comme extension du premier chapitre au cas instationnaire. Nous discrétisons notre modèle en utilisant la méthode des éléments finis conformes d'ordre p ≥ 1 en espace et le schéma d'Euler rétrograde en temps. Pour traiter les non linéarités, nous utilisons à nouveau des algorithmes de linéarisation de type Newton semi-lisse et nous employons également un solveur itératif algébrique quelconque pour le système linéaire obtenu. En utilisant la méthodologie de la reconstruction des flux équilibrés dans l'espace H(div,Ω), nous obtenons, quand p=1, et à convergence du solveur de linéarisation semi-lisse et d'algèbre linéaire, une borne supérieure de l'erreur totale dans la norme d'énergie sur l'espace L²(0,T;H01(Ω)). De plus, nous estimons dans ce cas du mieux possible l'erreur en dérivée temporelle dans la norme d'énergie L²(0,T;H^{-1}(Ω)). Dans le cas p ≥ 1, et à un pas quelconque des solveurs linéaires et non linéaires, nous présentons une estimation d'erreur a posteriori dans la norme d'énergie L²(0,T;H01(Ω))). Nous distinguons dans ce cas les composantes de l'erreur totale, à savoir l'erreur de discrétisation, l'erreur de linéarisation et l'erreur d'algèbre linéaire. Cela permet en particulier de formuler des critères d'arrêts adaptatifs dans le but de réduire le nombre d'itérations. Dans le troisième chapitre, [...]
In this thesis, we consider variational inequalities in the form of partial differential equations with complementarity constraints. We construct a posteriori error estimates for discretizations using the finite element method and the finite volume method, for inexact linearizations employing any semismooth Newton solver and any iterative linear algebraic solver. First, we consider the model problem of contact between two membranes, next we consider its extension into a parabolic variational inequality, and to finish we treat a two-phase compositional flow with phase transition as an industrial application. In the first chapter, we consider the stationnary problem of contact between two membranes. This problem belongs to the wide range of variational inequalities of the first kind. Our discretization is based on the finite element method with polynomials of order p ≥ 1, and we propose two discrete equivalent formulations: the first one as a variational inequality, and the second one as a saddle-point-type problem. We employ the Clarke differential so as to treat the nondifferentiable nonlinearities. It enables us to use semismooth Newton algorithms. Next, any iterative linear algebraic solver is used for the linear system stemming from the discretization. Employing the methodology of equilibrated flux reconstructions in the space H(div,Ω), we get an upper bound on the total error in the energy norm H01(Ω). This bound is fully computable at each semismooth Newton step and at each linear algebraic step. Our estimation distinguishes in particular the three components of the error, namely the discretization error (finite elements), the linearization error (semismooth Newton method), and the algebraic error (GMRES algorithm). We then formulate adaptive stopping criteria for our solvers to ultimately reduce the number of iterations. We also prove, in the inexact semismooth context, the local efficiency property of our estimators, up to a contact term that appears negligeable in numerics. Our numerical experiments illustrate the accuracy of our estimates and the reduction of the number of necessary iterations. They also show the performance of our adaptive inexacte semismooth Newton method. In the second chapter, we are interested in deriving a posteriori error estimates for a parabolic variational inequality and we consider the extension of the model of the first chapter to the unsteady case. We discretize our model using the finite element method of order p ≥ 1 in space and the backward Euler scheme in time. To treat the nonlinearities, we use again semismooth Newton algorithms, and we also employ an iterative algebraic solver for the linear system stemming from the discretization. Using the methodology of equilibrated flux reconstructions in the space H(div,Ω), we obtain, when p=1 and at convergence of the semismooth solver and the algebraic solver, an upper bound for the total error in the energy norm L²(0,T; H01(Ω)). Furthermore, we estimate in this case the time derivative error in a norm close to the energy norm L^2(0,T;H^{-1}(Ω)). In the case p ≥ 1, we present an a posteriori error estimate valid at each semismooth Newton step and at each linear algebraic step in the norm L²(0,T;H01(Ω)). We distinguish in this case the components of the total error, namely the discretization error, the linearization error, and the algebraic error. In particular, it enables us to devise adaptive stopping criteria for our solvers which reduces the number of iterations. In the third chapter, [...]
5

Yousef, Soleiman. „Etude d’estimations d’erreur a posteriori et d’adaptivité basée sur des critères d’arrêt et raffinement de maillages pour des problèmes d’écoulements multiphasiques et thermiques : Application aux procédés de récupération assistée d’huile“. Paris 6, 2013. http://www.theses.fr/2013PA066616.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénérées multidimensionnelles modélisant des problèmes importants pour l'industrie. Les modèles considérés sont discrétisé en espace par une méthode de volume finis et la méthode d'Euler implicite en temps. Nous démontrons une borne supérieure d’une norme duale du résidu augmentée d'un terme qui tient compte de la non-conformité de la méthode de discrétisation, par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent: un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur d’une résolution algébrique du système linéarisé (par exemple la méthode GMRes), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. Enfin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Des tests numériques illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation, du nombre total des itérations de linéarisation et du nombre total des itérations du solveur algébrique sur des exemples réalistes d'ingénierie de réservoir
The goal of this thesis is the a posteriori error analysis and the conception of adaptive strategies based on stopping criteria and local mesh refinement. We treat a class of multi-dimensional degenerate parabolic equations which represent typical examples of industrial interest. The considered models are discretized by a finite volume scheme in space with the backward Euler temporal stepping. We prove un upper bound for a dual norm of the residual, augmented by a nonconformity evaluation term, by fully computable error estimators. These estimators include: an estimator associated to the linearization error, an estimator associated to the algebraic error, an estimator associated to the temporal error, and an estimator associated to the spatial error. Consequently, these estimators allow to formulate an adaptive resolution algorithm where the corresponding errors can be equilibrated. We also propose a strategy of local mesh reffinement. Finally, we prove the efficiency of our a posteriori estimates. A numerical test illustrates the efficiency of our estimates and the performance of the adaptive algorithm. In particular, a significant gain in terms of the number of mesh cells, the total number of the iterations of the linearization method, and the total number of algebraic solver iterations is achieved on several real-life reservoir engineering examples
6

Parret-Fréaud, Augustin. „Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine“. Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0022/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2
The control of the quality of mechanical computations arouses a growing interest in both design and certification processes. It relies on error estimators the use of which leads to often prohibitive additional numerical costs on large computations. The present work puts forward a new procedure enabling to obtain a guaranteed estimation of discretization error in the setting of linear elastic problems solved by domain decomposition approaches. The method relies on the extension of the constitutive relation error concept to the framework of non-overlapping domain decomposition through the recovery of admissible interface fields. Its development within the framework of the FETI and BDD approaches allows to obtain a relevant estimation of discretization error well before the convergence of the solver linked to the domain decomposition. An extension of the estimation procedure to heterogeneous problems is also proposed. The behaviour of the method is illustrated and assessed on several numerical examples in 2 dimension
7

Herrera, Milagros Estefania. „Estimations rigoureuses des erreurs dynamiques dans diverses applications de télédétection : concept, validation et réalisation dans l'algorithme GRASP“. Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILR012.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
La compréhension des incertitudes dans la restitution des propriétés des aérosols et des surfaces est très importante pour une caractérisation adéquate des processus qui se produisent dans l’atmosphère. Cependant, la caractérisation fiable du bilan d’erreur des produits de restitution est un aspect complexe qui n’est pas encore entièrement résolu dans la plupart des approches de la télédétection. Le niveau d’incertitude pour la majorité des produits de télédétection repose principalement sur des validations post-traitement et des comparaisons avec d’autres données, alors que les erreurs dynamiques sont rarement fournies. Cette étude décrit, analyse et évalue un concept issu de l’algorithme GRASP (Generalized Retrieval of Atmosphere and Surface Properties) dont l’objectif est de fournir les estimations dynamiques des erreurs pour les paramètres restitués. L’approche utilise un concept rigoureux d’optimisation statistique pour estimer les effets de la propagation des incertitudes de mesure sur les résultats de la restitution. Elle tient compte de l’effet des incertitudes aléatoires et systématiques dans les données initiales et fournit des estimations d’erreurs tant pour les paramètres directement restitués inclus dans le vecteur d’état de restitution que pour les caractéristiques dérivées de ces paramètres. L’efficacité du concept d’estimation des erreurs réalisées est analysée en profondeur pour les restitutions GRASP à partir des mesures photomètre et lidar.Les divers aspects des générations et évaluations des estimations d’erreurs sont discutés et illustrés. Ces évaluations ont été réalisées à l’aide de la série exhaustive de tests de sensibilité lorsque des mesures du photomètre et lidar simulées sont perturbées par des erreurs aléatoires et systématiques et inversées. Les résultats des restitutions et leurs estimations d’erreurs obtenues dans les tests sont analysés et évalués. Les essais sont effectués pour les observations de plusieurs types d’aérosols, issus de la combustion de biomasse, urbains, de poussières et leurs mélanges. L’étude tient compte des mesures faites par les photomètres solaires AERONET à 440, 675, 870 et 1020 nm et lidar élastique à 355, 532 et 1064 nm. Les données du photomètre sont inversées seules ou avec les données lidar. L’analyse montre que l’erreur générée estime globalement de façon satisfaisante les incertitudes des différentes caractéristiques des aérosols restitués: distribution en taille, indice de réfraction complexe, albédo à diffusion simple, rapports du lidar, profils verticaux des aérosols, etc.En outre, l’analyse montre que les principales erreurs dynamiques observées concorde bien avec les tendances d’erreurs communément connues par les expériences de restitution. Par exemple, les limites de précision de restitution pour tous types d’aérosols sont associées aux situations de faible épaisseur optique. De plus, pour les observations de mélanges d’aérosols multi-composants, la caractérisation fiable de chaque composant n’est possible que dans des situations limitées, par exemple à partir de données radiométriques obtenues pour des observations à faible angle zénithal solaire ou à partir d’une combinaison de données radiométriques et lidar. Dans le même temps, les propriétés optiques totales des mélanges d’aérosols ont tendance à être toujours restituées de manière satisfaisante. En outre, l’étude comprend l’analyse de la structure détaillée des matrices de corrélation pour les erreurs de restitution des aérosols mono et multi-composants. Cette analyse semble être une approche utile pour optimiser les schémas d’observations et les configurations de récupération. L’illustration de l’application de l’approche développée aux données réelles est fournie pour les observations co-localisées du photomètre et lidar à Buenos Aires. De plus, les résultats préliminaires de l’utilisation des estimations d’erreurs pour la restitution des aérosols à partir des données satellitaires sont fournis
The understanding of the uncertainties in the retrieval of the aerosol and surface properties is very important for an adequate characterization of the processes that occur in the atmosphere. However, the reliable characterization of the error budget of the retrieval products is a very challenging aspect that currently remains not fully resolved in most remote sensing approaches. The level of uncertainties for the majority of the remote sensing products relies mostly on post-processing validations and inter comparisons with other data while the dynamic errors are rarely provided. This study describes, discusses and evaluates a concept realized in GRASP (Generalized Retrieval of Atmosphere and Surface Properties) algorithm for providing the dynamic estimates of uncertainties for retrieved parameters. The approach employs a rigorous concept of statistical optimization for estimating the effects of measurement uncertainties propagation to the retrieval results. The approach accounts for the effect of both random and systematic uncertainties in the initial data and provides error estimates both for directly retrieved parameters included in the retrieval state vector and for the characteristics derived from these parameters. The efficiency of the realized error estimation concept is extensively analyzed for GRASP applications for aerosol retrieval from ground-based observations by sun/sky photometer and lidar. The diverse aspects of the generations and evaluations of the error estimates are discussed and illustrated. The evaluation of the error estimates was realized using the series of comprehensive sensitivity tests when simulated sun/sky photometer measurements and lidar data are perturbed by random and systematic errors and inverted. The results of the retrievals and their error estimations obtained in the tests are analyzed and evaluated. The tests are conducted for the different observations of several types of aerosols including biomass burning, urban, dust and their mixtures. The study considers popular observations by AERONET sun/sky radiometer at 440, 675, 870 and 1020 nm and multi-wavelength elastic lidar at 355, 532 and 1064 nm. The sun/sky radiometer data are inverted aloneor together with lidar data. The analysis shows that the generated error estimates overall satisfactory of the uncertainties of different retrieved aerosol characteristics including aerosol size distribution, complex refractive index, single scattering albedo, lidar ratios, aerosol vertical profiles, etc. Also, the analysis shows that the main observed error dynamic agrees well with the errors tendencies commonly known fromthe retrieval experience. For example, the serious retrieval accuracy limitations for all aerosol types are associated with the situations with low optical depth. Also, for observations of multi-component aerosol mixtures, the reliable characterization of each component is possible only in limited situations, for example from radiometric data obtained for low solar zenith angle observations or from a combination of radiometricand lidar data. At the same time, total optical properties of aerosol mixtures tend to be always retrieved satisfactorily. In addition, the study includes the analysis of the detailed structure of correlation matrices for the retrieval errors of mono- and multi-component aerosols. The conducted analysis of error correlation appears to be a usefulapproach for optimizing observations schemes and retrieval setups. The illustration of the developed approach application to real data is provided for co-located observations of sun/sky photometer and lidar over Buenos Aires. Furthermore, the preliminary results for utilizing the error estimates for the retrieval of aerosol from satellite data are provided
8

Pled, Florent. „Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00776633.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel.
9

Tirvaudey, Marie. „Couplage AIG/MEG pour l'analyse de détails structuraux par une approche non intrusive et certifiée“. Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0016/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Dans le contexte industriel actuel, où la simulation numérique joue un rôle majeur, de nombreux outils sont développés afin de rendre les calculs les plus performants et exacts possibles en utilisant les ressources numériques de façon optimale. Parmi ces outils, ceux non-intrusifs, c’est-à-dire ne modifiant pas les codes commerciaux disponibles mais permettant d’utiliser des méthodes de résolution avancées telles que l’analyse isogéométrique ou les couplages multi-échelles, apparaissent parmi les plus attirants pour les industriels. L’objectif de cette thèse est ainsi de coupler l’Analyse IsoGéométrique (AIG) et la Méthode des Éléments Finis (MEF) standard pour l’analyse de détails structuraux par une approche non-intrusive et certifiée. Dans un premier temps, on développe un lien global approché entre les fonctions de Lagrange, classiquement utilisées en éléments finis et les fonctions NURBS bases de l’AIG, ce qui permet d’implémenter des analyses isogéométriques dans un code industriel EF vu comme une boîte noire. Au travers d’exemples linéaires et non-linéaires implémentés dans le code industriel Code_Aster de EDF, nous démontrons l’efficacité de ce pont AIG\MEF et les possibilités d’applications industrielles. Il est aussi démontré que ce lien permet de simplifier l’implémentation du couplage non-intrusif entre un problème global isogéométrique et un problème local éléments finis. Ensuite, le concept de couplage non-intrusif entre les méthodes étant ainsi possible, une stratégie d’adaptation est mise en place afin de certifier ce couplage vis-à-vis d’une quantité d’intérêt. Cette stratégie d’adaptation est basée sur des méthodes d’estimation d’erreur a posteriori. Un estimateur global et des indicateurs d’erreur d’itération, de modèle et de discrétisation permettent de piloter la définition du problème couplé. La méthode des résidus est utilisée pour évaluer ces erreurs dans des cas linéaires, et une extension aux problèmes non-linéaires via le concept d’Erreur en Relation de Comportement (ERC) est proposée
In the current industrial context where the numerical simulation plays a major role, a large amount of tools are developed in order to perform accurate and effective simulations using as less numerical resources as possible. Among all these tools, the non-intrusive ones which do not modify the existing structure of commercial softwares but allowing the use of advanced solving methods, such as isogeometric analysis or multi-scale coupling, are the more attractive to the industry. The goal of these thesis works is thus the coupling of the Isogeometric Analysis (IGA) with the Finite Element Method (FEM) to analyse structural details with a non-intrusive and certified approach. First, we develop an approximate global link between the Lagrange functions, commonly used in the FEM, and the NURBS functions on which the IGA is based. It’s allowed the implementation of isogeometric analysis in an existing finite element industrial software considering as a black-box. Through linear and nonlinear examples implemented in the industrial software Code_Aster of EDF, we show the efficiency of the IGA\FEM bridge and all the industrial applications that can be made. This link is also a key to simplify the non-intrusive coupling between a global isogeometric problem and a local finite element problem. Then, as the non-intrusive coupling between both methods is possible, an adaptive process is introduced in order to certify this coupling regarding a quantity of interest. This adaptive strategy is based on a posteriori error estimation. A global estimator and indicators of iteration, model and discretization error sources are computed to control the definition of the coupled problem. Residual base methods are performed to estimated errors for linear cases, an extension to the concept of constitutive relation errors is also initiated for non-linear problems
10

Thai, Hoang phuong. „Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN017/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement)
The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models

Zur Bibliographie