Dissertations / Theses on the topic 'Incertitudes de propagation'

To see the other types of publications on this topic, follow the link: Incertitudes de propagation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Incertitudes de propagation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bertin, Michaël. "Propagation des incertitudes dans un modèle réduit de propagation des infrasons." Thesis, Cachan, Ecole normale supérieure, 2014. http://www.theses.fr/2014DENS0020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La perturbation d’un système peut donner lieu à de la propagation d’onde. Une façon classique d’appréhender ce phénomène est de rechercher les modes propres de vibration du milieu. Mathématiquement, trouver ces modes consiste à rechercher les valeurs et fonctions propres de l’opérateur de propagation. Cependant, d’un point de vue numérique, l’opération peut s’avérer coûteuse car les matrices peuvent avoir de très grandes tailles. En outre, dans la plupart des applications, des incertitudes sont inévitablement associées à notre modèle. La question se pose alors de savoir s’il faut attribuer d’importantes ressources de calcul pour une simulation dont la précision du résultat n’est pas assurée. Nous proposons dans cette thèse une démarche qui permet à la fois de mieux comprendre l’influence des incertitudes sur la propagation et de réduire considérablement les coûts de calcul pour la propagation des infrasons dans l’atmosphère. L’idée principale est que tous les modes n’ont pas la même importance et souvent, seule une poignée d’entre eux suffit à décrire le phénomène sans perte notable de précision. Ces modes s’avèrent être ceux qui sont les plus sensibles aux perturbations atmosphériques. Plus précisément, l’analyse de sensibilité permet d’identifier les structures de l’atmosphère les plus influentes, les groupes de modes qui leur sont associés et les parties du signal infrasonore qui leur correspondent. Ces groupes de modes peuvent être spécifiquement ciblés dans un calcul de spectre au moyen de techniques de projection sur des sous-espace de Krylov, ce qui implique un gain important en coût de calcul. Cette méthode de réduction de modèle peut être appliquée dans un cadre statistique et l’estimation de l’espérance et de la variance du résultat s’effectue là aussi sans perte notable de précision et avec un coût réduit
The perturbation of a system can give rise to wave propagation. A classical approach to understand this phenomenon is to look for natural modes of vibration of the medium. Mathematically, finding these modes requires to seek the eigenvalues and eigenfunctions of the propagation operator. However, from a numerical point of view, the operation can be costly because the matrices can be of very large size. Furthermore, in most applications, uncertainties are inevitably associated with our model. The question then arises as to whether we should allocate significant computational resources for simulation while the accuracy of the result is not guaranteed. We propose in this thesis an approach that allows both a better understanding of the influence of uncertainties on the propagation and a significant decrease of computational costs for infrasound propagation in the atmosphere. The main idea is that all modes do not have the same importance and only a few of them is often sufficient to account for the phenomenon without a significant loss of accuracy. These modes appear to be those which are most sensitive to atmospheric disturbances. Specifically, a sensitivity analysis is used to identify the most influential structures of the atmosphere, the associated groups of modes and their associated parts of the infrasound signal. These groups of modes can be specifically targeted in a spectrum calculation with the projection of the operator onto Krylov subspaces, that allows a significant decrease of the computational cost. This method of model reduction can be applied in a statistical framework as well and estimations of the expectation and the variance of the results are carried out without a significant loss of accuracy and still with a low cost
2

Kayser, Bill. "Estimation des incertitudes de modélisation du bruit des éoliennes." Thesis, Le Mans, 2020. http://www.theses.fr/2020LEMA1035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il existe aujourd'hui un enjeu sociétal majeur à étudier l’émission et la propagation du bruit émis par les éoliennes, et notamment de quantifier l'incertitude sur l'estimation des niveaux sonores. En effet, bien que ces niveaux sonores soient relativement faibles en regard de ceux générés par d’autres sources acoustiques de l’environnement (e.g. les transports terrestres), les nuisances sonores d’origine éolienne sont souvent mises en avant comme gêne potentielle. Ainsi, ces travaux de thèse visent à quantifier la dépendance spatiale et fréquentielle des incertitudes rencontrées en acoustique environnementale, et en particulier concernant le bruit des éoliennes. Pour ce faire, un couplage est réalisé entre un modèle d’émission acoustique permettant de prendre en compte les spécificités acoustiques des éoliennes (spectre et directivité), et un modèle de propagation acoustique permettant de prendre en compte les effets de l’atmosphère (thermique et aérodynamique) et les effets de sol (absorption et rugosité) sur la propagation acoustique. Une analyse de sensibilité est ensuite effectuée afin de déterminer les paramètres de l’environnement les plus influents sur la dispersion des niveaux sonores. Suite au développement d’un métamodèle, une analyse d’incertitude est réalisée afin d’estimer la variabilité totale des niveaux sonores. Enfin, la méthode est appliquée à quelques exemples de situations caractéristiques du contexte éolien
There is a major societal challenge to study the emission and propagation of noise emitted by wind turbines, and in particular to quantify the uncertainty in the estimation of sound levels. Although these sound levels are relatively low compared to those generated by other acoustic sources in the environment (e.g. land transport), noise pollution from wind turbines is often highlighted as a potential nuisance. Thus, this thesis work aims to quantify the spatial and frequency dependence of the uncertainties encountered in environmental acoustics, and in particular concerning wind turbine noise. To do so, a coupling is made between an acoustic emission model allowing to take into account the acoustic specificities of wind turbines (spectrum and directivity), and an acoustic propagation model allowing to take into account the effects of the atmosphere (thermal and aerodynamic vertical profiles) and the ground effects (absorption and roughness) on acoustic propagation. A sensitivity analysis is then carried out to determine the environmental parameters that have the greatest influence on the dispersion of sound levels. Following the development of a metamodel, an uncertainty analysis is carried out to estimate the total variability of the sound levels. Finally the method is applied to some examples of situations characteristic of the wind turbine noise
3

Nouy, Anthony. "Contributions à la quantification et à la propagation des incertitudes en mécanique numérique." Habilitation à diriger des recherches, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00422364.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La quantification et la propagation des incertitudes dans les modèles physiques apparaissent comme des voies essentielles vers l'amélioration de la prédiction de leur réponse. Le développement d'outils de modélisation des incertitudes et d'estimation de leur impact sur la réponse d'un modèle a constitué un axe de recherche privilégié dans de nombreux domaines scientifiques. Cette dernière décennie, un intérêt croissant a été porté à des méthodes numériques basées sur une vision fonctionnelle des incertitudes. Ces méthodes, couramment baptisées ``méthodes spectrales stochastiques'', sont issues d'un mariage fructueux de l'analyse fonctionnelle et de la théorie des probabilités.

Reposant sur des bases mathématiques fortes, les méthodes spectrales de type Galerkin semblent constituer une voie prometteuse pour l'obtention de prédictions numériques fiables de la réponse de modèles régis par des équations aux dérivées partielles stochastiques (EDPS). Plusieurs inconvénients freinent cependant l'utilisation de ces techniques et leur transfert vers des applications de grande taille : le temps de calcul, les capacités de stockage mémoire requises et le caractère ``intrusif'', nécessitant une bonne connaissance des équations régissant le modèle et l'élaboration de solveurs spécifiques à une classe de problèmes donnée. Un premier volet de mes travaux de recherche a consisté à proposer une stratégie de résolution alternative tentant de lever ces inconvénients. L'approche proposée, baptisée méthode de décomposition spectrale généralisée, s'apparente à une technique de réduction de modèle a priori. Elle consiste à rechercher une décomposition spectrale optimale de la solution sur une base réduite de fonctions, sans connaître la solution a priori.

Un deuxième volet de mes activités a porté sur le développement d'une méthode de résolution d'EDPS pour le cas où l'aléa porte sur la géométrie. Dans le cadre des approches spectrales stochastiques, le traitement d'aléa sur l'opérateur et le second membre est en effet un aspect aujourd'hui bien maîtrisé. Par contre, le traitement de géométrie aléatoire reste un point encore très peu abordé mais qui peut susciter un intérêt majeur dans de nombreuses applications. Mes travaux ont consisté à proposer une extension de la méthode éléments finis étendus (X-FEM) au cadre stochastique. L'avantage principal de cette approche est qu'elle permet de traiter le cas de géométries aléatoires complexes, tout en évitant les problèmes liés au maillage et à la construction d'espaces d'approximation conformes.

Ces deux premiers volets ne concernent que l'étape de prédiction numérique, ou de propagation des incertitudes. Mes activités de recherche apportent également quelques contributions à l'étape amont de quantification des incertitudes à partir de mesures ou d'observations. Elles s'insèrent dans le cadre de récentes techniques de représentation fonctionnelle des incertitudes. Mes contributions ont notamment porté sur le développement d'algorithmes efficaces pour le calcul de ces représentations. En particulier, ces travaux ont permis la mise au point d'une méthode d'identification de géométrie aléatoire à partir d'images, fournissant une description des aléas géométriques adaptée à la simulation numérique. Une autre contribution porte sur l'identification de lois multi-modales par une technique de représentation fonctionnelle adaptée.
4

Geraci, Gianluca. "Schémas et stratégies pour la propagation et l'analyse des incertitudes dans la simulation d'écoulements." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00940294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce manuscrit présente des contributions aux méthodes de propagation et d'analyse d'incertitude pour des applications en Mécanique des Fluides Numérique. Dans un premier temps, deux schémas numériques innovantes sont présentées: une approche de type "Collocation", et une autre qui est basée sur une représentation de type "Volumes Finis" dans l'espace stochastique. Dans les deux, l''elément clé est donné par l'introduction d'une représentation de type "Multirésolution" dans l'espace stochastique. L'objective est à la fois de réduire le nombre de dimensions et d'appliquer un algorithme d'adaptation de maillage qui puisse ˆetre utilisé dans l'espace couplé physique/stochastique pour des problémes non-stationnaires. Pour finir, une stratégie d'optimisation robuste est proposée, qui est basée sur une analyse de décomposition de la variance et des moments statistiques d'ordre plus élevé. Dans ce cas, l'objectif est de traiter des probl'emes avec un grand nombre d'incertitudes.
5

Lignon, Sylvain. "Approche robuste du risque sismique." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/slignon.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A l'heure actuelle, la question de la modélisation sismique est encore très ouverte au plan international. Les travaux rapportés dans ce document proposent une modélisation de l'ensemble de la chaîne, depuis la description de l'initialisation de la secousse sismique jusqu'à l'endommagement de la structure en béton armé, en passant par la transmission de l'onde à travers le sol, le but étant de mettre en oeuvre une approche robuste de l'endommagement des structures. Un découplage des différents phénomènes est pour cela introduit, de façon à travailler sur des modèles simplifiés à chaque niveau. Pour commencer, un modèle original de faille sismique est développé, le modèle 3S. La propagation des ondes est alors étudiée considérant le sol comme un milieu stratifié. Enfin, des incertitudes sont prises en compte dans l'évaluation de l'endommagement des structures. Des méthodes spécifiques d'analyse convexe sont alors mises en oeuvre
At present, the question of seismic modelling is still very open. The work reported in this document proposes a modelling of the whole of the chain, from the description of the initialization of the earth tremor until the damage of the reinforced concrete structure, while passing by the transmission of the wave through the ground, the goal being to implement a robust approach of the damage structure. A decoupling of the various phenomena is introduced, in order to work on simplified models on each level. To start, an original model of seismic fault is developed, the 3S model. The wave propagation is then studied by regarding the ground as a stratified medium. Lastly, uncertainties are taken into account in the evaluation of the damage of the structures. Specific methods of convex analysis are then implemented
6

Guerra, Jonathan. "Optimisation multi-objectif sous incertitudes de phénomènes de thermique transitoire." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est la résolution d’un problème d’optimisation multi-objectif sous incertitudes en présence de simulations numériques coûteuses. Une validation est menée sur un cas test de thermique transitoire. Dans un premier temps, nous développons un algorithme d'optimisation multi-objectif basé sur le krigeage nécessitant peu d’appels aux fonctions objectif. L'approche est adaptée au calcul distribué et favorise la restitution d'une approximation régulière du front de Pareto complet. Le problème d’optimisation sous incertitudes est ensuite étudié en considérant des mesures de robustesse pires cas et probabilistes. Le superquantile intègre tous les évènements pour lesquels la valeur de la sortie se trouve entre le quantile et le pire cas mais cette mesure de risque nécessite un grand nombre d’appels à la fonction objectif incertaine pour atteindre une précision suffisante. Peu de méthodes permettent de calculer le superquantile de la distribution de la sortie de fonctions coûteuses. Nous développons donc un estimateur du superquantile basé sur une méthode d'échantillonnage préférentiel et le krigeage. Il permet d’approcher les superquantiles avec une faible erreur et une taille d’échantillon limitée. De plus, un couplage avec l’algorithme multi-objectif permet la réutilisation des évaluations. Dans une dernière partie, nous construisons des modèles de substitution spatio-temporels capables de prédire des phénomènes dynamiques non linéaires sur des temps longs et avec peu de trajectoires d’apprentissage. Les réseaux de neurones récurrents sont utilisés et une méthodologie de construction facilitant l’apprentissage est mise en place
This work aims at solving multi-objective optimization problems in the presence of uncertainties and costly numerical simulations. A validation is carried out on a transient thermal test case. First of all, we develop a multi-objective optimization algorithm based on kriging and requiring few calls to the objective functions. This approach is adapted to the distribution of the computations and favors the restitution of a regular approximation of the complete Pareto front. The optimization problem under uncertainties is then studied by considering the worst-case and probabilistic robustness measures. The superquantile integrates every event on which the output value is between the quantile and the worst case. However, it requires an important number of calls to the uncertain objective function to be accurately evaluated. Few methods give the possibility to approach the superquantile of the output distribution of costly functions. To this end, we have developed an estimator based on importance sampling and kriging. It enables to approach superquantiles with little error and using a limited number of samples. Moreover, the setting up of a coupling with the multi-objective algorithm allows to reuse some of those evaluations. In the last part, we build spatio-temporal surrogate models capable of predicting non-linear, dynamic and long-term in time phenomena by using few learning trajectories. The construction is based on recurrent neural networks and a construction facilitating the learning is proposed
7

Jalid, Abdelilah. "Contribution à l'évaluation des incertitudes liées aux résultats de mesure tridimensionnelle." Lille 1, 2007. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2007/50376-2007-29.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En métrologie tridimensionnelle, l'outil privilégié de contrôle est actuellement la machine à mesurer tridimensionnelle (MMT). Une démarche métrologique appliquée à ce type d'équipement de mesure impose que la résultat de mesure soit accompagné d'une incertitude : lorsque ce paramètre n'est pas pris en compte, les décisions prises à partir des données de mesurage risquent d'être aberrantes. Ce travail présente une contribution à l'évaluation des incertitudes liées aux résultats de mesures tridimensionnelles. Pour cela, on présente une nouvelle méthode d'estimation des paramètres des éléments géométriques associés et de leurs incertitudes permettant de s'affranchir de l'hypothèse classique des petits déplacements. Notre méthode basée sur la régression de la distance orthogonale permet de travailler dans le repère machine, et de tenir compte des incertitudes sur les coordonnées des points palpés. Après une modélisation des entités géométriques les plus rencontrées en métrologie tridimensionnelle, une méthode d'estimation basée sur la régression de la distance orthogonale (ODR) est présentée pour déterminer les paramètres des éléments géométriques associés et les incertitudes associées. La validation de cette modélisation est réalisée conformément à la norme ISO 10360-6 et complétée par une campagne d'essais de mesurages sur machine à mesurer tridimensionnelle. L'incertitude de mesure associée au défaut de forme est quantifiée par application de la loi de propagation des incertitudes : cette étape de calcul est validée par la méthode de Monté Carlo. L'évaluation de l'incertitude engendrée par la gamme de mesure suivie lors du contrôle d'une pièce mécanique est illustrée sur les spécifications de parallélisme et de perpendicularité. Un programme informatique développé en C++ a permis de traiter ces différentes étapes d'association et de construction d'éléments géométriques, et d'illustrer les différentes phases de propagation des incertitudes vers la spécification mesurée, et donc d'identifier les moyens pour optimiser cette incertitude. Cette étude respecte les directives normatives de l'ISO 14253-1 en vue d'intégrer l'incertitude dans les prises de décision pendant la déclaration de conformité de la pièce.
8

Bachmann, Jérôme. "Contribution à la propagation des incertitudes dans les gammes de mesure des machines à mesurer par coordonnées." Aix-Marseille 2, 2003. http://www.theses.fr/2003AIX22090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'approche statistique de l'association des surfaces nous permet aujourd'hui, à un risque donné, d'identifier les paramètres des surfaces usuelles. Le moment d'ordre 2 est un indicateur de qualité de l'estimation des paramètres et est homogène à une variance. Cette approche ouvre des perspectives intéressantes en ce qui concerne la propagation des incertitudes. Nous avons mis en place une méthode qui doit s'appliquer à l'ensemble des spécifications de la norme ISO 1101 sans modificateur. La loi de propagation du GUM a été réécrite pour des grandeurs vectorielles. La méthode de propagation généralisée est appliquée à des cas simples qui ont la particularité de mettre en évidence la complexité de la méthode. Celle-ci nécessite un assemblage matriciel qui a pour objectif de ne retenir que les parties fonctionnelles des matrices de covariance et des matrices jacobiennes, en fonction de l'opération géométrique réalisée
The statistical approach of the association of surfaces allows us today, at a given risk, to identify the parameters of usual surfaces. The moment of order 2 is a quality indicator of the estimated parameters and is homogeneous with a variance. This approach opens interesting prospects with regard to the propagation of uncertainties. We set up a method, which must apply to the whole of the specifications of the standard ISO 1101 without modifier. The law of propagation of the GUM was rewritten for vector quantities. The method of generalized propagation is applied to simple cases, which have the characteristic to highlight the complexity of the method. This one requires a matric assembly, which aims to retain only the functional parts of the covariance matrix and the jacobian matrices according to the geometrical operation carried out
9

Brizard, Matthieu. "Développement et étude d'un viscosimètre absolu à chute de bille." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00009440.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation de l'incertitude tout au long de l'échelle de viscosité étant le principal inconvénient de la viscosimétrie capillaire, un viscosimètre absolu à chute de bille a été développé, qui permet de couvrir une large gamme de viscosité tout en gardant une faible incertitude. La mesure de viscosité repose alors sur la mesure de la vitesse limite de chute de la bille. Un banc expérimental a été développé afin d'atteindre une incertitude relative de l'ordre de 10-3. Il permet d'observer la trajectoire de la bille à l'intérieur d'un tube cylindrique rempli du liquide étudié et d'obtenir l'évolution de la vitesse. La caractérisation métrologique de ce banc expérimental est présentée en utilisant tout d'abord la loi de propagation des incertitudes et ensuite la simulation numérique de Monte-Carlo. Enfin, les mesures de viscosité et les incertitudes obtenues avec le viscosimètre à chute de bille sont confrontées à celles obtenues avec un viscosimètre capillaire.
10

Leissing, Thomas. "Propagation d'ondes non linéaires en milieu complexe - Application à la propagation en environnement urbain." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00455590.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette recherche, un modèle de propagation d'ondes de choc sur grandes distances sur un environnement urbain est construit et validé. L'approche consiste à utiliser l'Equation Parabolique Nonlinéaire (NPE) comme base. Ce modèle est ensuite étendu afin de prendre en compte d'autres effets relatifs à la propagation du son en milieu extérieur (surfaces non planes, couches poreuses, etc.). La NPE est résolue en utilisant la méthode des différences finies et donne des résultats en accord avec d'autres méthodes numériques. Ce modèle déterministe est ensuite utilisé comme base pour la construction d'un modèle stochastique de propagation sur environnements urbains. La Théorie de l'Information et le Principe du Maximum d'Entropie permettent la construction d'un modèle probabiliste d'incertitudes intégrant la variabilité du système dans la NPE. Des résultats de référence sont obtenus grâce à une méthode exacte et permettent ainsi de valider les développements théoriques et l'approche utilisée.
11

Chen, Shengli. "Maîtrise des biais et incertitudes des sections efficaces et de la modélisation de la cinématique associées aux réactions nucléaires conduisant aux dommages dans les matériaux sous irradiation." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Étant donné que les dommages causés par l'irradiation constituent un défi majeur pour les matériaux nucléaires, il est nécessaire de calculer précisément ces dommages conjointement avec l’estimation de ses incertitudes. L'objectif principal de cette thèse est de développer et d'améliorer les méthodologies pour calculer les dommages induits par l'irradiation neutronique ainsi que de proposer une méthodologie pour l’estimation de l'incertitude. Après une brève revue des modèles de réactions nucléaires et des modèles de dommages d’irradiation primaires, on propose des méthodes complètes pour calculer la section efficace des dommages à partir de différentes réactions nucléaires pour calculer du taux de Déplacement par Atome (DPA).Une interpolation améliorée est proposée pour produire la valeur de crête de la distribution d'énergie-angulaire à partir de données tabulées. Les énergies de recul des réactions induites par les neutrons sont résumées avec une estimation de l'effet relativiste et de la vibration thermique de la cible. En particulier, une nouvelle méthode de calcul de l'énergie de recul des réactions d'émission de particules chargées est proposée en considérant l’effet tunnel et la barrière Coulombienne. Certaines méthodes sont développées pour améliorer et vérifier les calculs numériques. Les calculs de la section de dommage provenant de la réaction de la capture et des réactions d’émission de N-corps sont également analysés et discutés en profondeur. En plus des dommages induits par l'irradiation neutronique, les sections DPA induites par les électrons, les positons et les photons et les dommages induits par la désintégration bêta sont également étudiées.Pour le calcul du taux de DPA induit par l'irradiation neutronique, il convient de faire attention lors de l'utilisation de sections à dilution infinie. Par exemple, dans le cœur interne d’ASTRID, la correction d'autoprotection sur la section DPA de ECCO 33-groupe conduit à une réduction de 10% du taux de DPA, tandis que cette correction multi-groupe n'est pas toujours automatiquement traitée pour le calcul de DPA dans les codes neutroniques ni pour le calcul du spectre Primary Knock-on Atom (PKA). En plus des dommages par les neutrons, une méthode générale est proposée pour calculer les dommages de déplacement induits par les Produits de Fission (PFs) avec des simulations de collisions atomistiques. Elle montre que la valeur de crête du taux de DPA induit par les PFs peut être 4 à 5 fois supérieure à celle induite par les neutrons dans la gaine du cœur interne d’ASTRID, même si la pénétration des PFs dans la gaine Fe-14Cr est inférieure à 10 µm. Par conséquent, la question si les dommages induits par les PFs doivent être pris en compte pour déterminer la durée de vie des assemblages combustibles dans les réacteurs rapides doit être discutée.Dans la cuve d'un réacteur à eau pressurisée, les matrices de covariance du spectre de neutrons prompts de fission de 235U venant de ENDF/B-VII.1 et JENDL-4.0 conduisent respectivement à une incertitude de 11% et 7% du taux de DPA. Négliger les corrélations du flux de neutrons et du spectre PKA entraîne une large sous-estimation d’un facteur de 21. Les incertitudes totales du taux de dommages sont respectivement de 12% et 9%, tandis que les nulles valeurs des corrélations de la section efficace de dommage et du flux de neutron conduisent à une réduction de l'incertitude par un facteur de 3
Because the irradiation damage is a major challenge of nuclear materials, it is of upmost importance to accurately calculate it with reliable uncertainty estimates. The main objective of this thesis is to develop and improve the methodologies for computing the neutron irradiation-induced displacement damages as well as their uncertainties. After a brief review on nuclear reaction models and primary radiation damage models, we propose a complete methodology for calculating damage cross sections from different nuclear reactions and the subsequent calculation of Displacement per Atom (DPA) rates.The recoil energies from neutron-induced reactions are summarized with an estimation of the relativistic effect and the target thermal vibration. Particularly, a new method for computing the recoil energy from charged particle emission reactions is proposed by considering both the quantum tunneling and the Coulomb barrier. Some methods are developed to improve and verify numerical calculations. Damage cross section calculations from neutron radiative capture reaction and N-body reactions are also thoroughly analyzed and discussed. In addition to the neutron irradiation-induced displacement damage, the electron, positron, photon-induced DPA cross sections, as well as the beta decay and Fission Products (FPs)-induced damage are also investigated. Orders of magnitude of their relative contributions are given.For the neutron irradiation-induced DPA rate calculation, attention should be paid when using infinite dilution cross sections. E.g., in the ASTRID inner core, the self-shielding correction on ECCO 33-group damage cross sections leads to a 10% reduction of DPA rate, whereas the multigroup correction is still not automatically treated for DPA rate calculation in neutronic codes nor for computing Primary Knock-on Atom (PKA) spectrum. Based on the presently proposed method for computing the FPs-induced DPA by atomistic simulations, the peak value of the FPs-induced DPA rate can be 4 to 5 times larger than the neutron-induced one in the cladding of the ASTRID inner core, even though the penetration of FPs in the Fe-14Cr cladding is less than 10 µm. Therefore, the question of whether the FPs-induced damage should be considered for determining fuel assembly lifetime in fast reactors needs to be discussed.In the reactor vessel of a simplified pressurized water reactor, the covariance matrices of 235U prompt fission neutron spectrum from ENDF/B-VII.1 and JENDL-4.0 respectively lead to 11% and 7% relative uncertainty of DPA rate. Neglecting the correlations of the neutron flux and PKA spectrum results in an underestimation by a factor of 21. The total uncertainties of damage energy rate are respectively 12% and 9%, whereas an underestimation by a factor of 3 is found if the correlations of damage cross section and neutron flux are not considered
12

Iooss, Bertrand. "Contributions au traitement des incertitudes en modélisation numérique : propagation d'ondes en milieu aléatoire et analyse statistique d'expériences simulées." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00360995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent document constitue mon mémoire d'habilitation à diriger des recherches. Il retrace mon activité scientifique de ces douze dernières années, depuis ma thèse jusqu'aux travaux réalisés en tant qu'ingénieur-chercheur du CEA Cadarache. Les deux chapitres qui structurent ce document correspondent à deux domaines de recherche relativement différents mais se référant tous les deux au traitement des incertitudes dans des problèmes d'ingénierie. Le premier chapitre établit une synthèse de mes travaux sur la propagation d'ondes hautes fréquences en milieu aléatoire. Il concerne plus spécifiquement l'étude des fluctuations statistiques des temps de trajet des ondes acoustiques en milieu aléatoire et/ou turbulent. Les nouveaux résultats obtenus concernent principalement l'introduction de l'anisotropie statistique des champs de vitesse lors de la dérivation des expressions des moments des temps en fonction de ceux du champ de vitesse des ondes. Ces travaux ont été essentiellement portés par des besoins en géophysique (exploration pétrolière et sismologie). Le second chapitre aborde le domaine de l'utilisation des techniques probabilistes pour prendre en compte les incertitudes des variables d'entrée d'un modèle numérique. Les principales applications que j'évoque dans ce chapitre relèvent du domaine de l'ingénierie nucléaire qui offre une grande variété de problématiques d'incertitude à traiter. Tout d'abord, une synthèse assez complète est réalisée sur les méthodes statistiques d'analyse de sensibilité et d'exploration globale de modèles numériques. La construction et l'exploitation d'un métamodèle (fonction mathématique peu coûteuse se substituant à un code de calcul coûteux) sont ensuite illustrées par mes travaux sur le modèle processus gaussien (krigeage). Deux thématiques complémentaires sont finalement abordées : l'estimation de quantiles élevés de réponses de codes de calcul et l'analyse de codes de calcul stochastiques. Une conclusion met en perspective ces travaux dans le contexte plus général de la simulation numérique et de l'utilisation de modèles prédictifs dans l'industrie.
13

Birman, Jessie. "Quantification et propagation d'incertitude dans les phases amont de projets de conception d'avions : de l'optimisation déterministe à l'optimisation sous contraintes probabilistes." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2269/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le " Conceptual Design " est la première étape d'un projet d'avion de transport de passagers. Classiquement, au cours de ce processus, un grand nombre de configurations possibles sont comparées après avoir été dimensionnées sur la base d'un processus d'optimisation déterministe, multidisciplinaire sous contraintes. L'objectif est de définir les paramètres principaux de l'avion qui répondent à un cahier des charges donné de haut niveau. A ce stade du projet, les ingénieurs doivent résoudre le problème en ayant très peu de connaissances sur le produit final et donc beaucoup d'incertitude. La gestion de l'incertitude est un point crucial : réussir à comprendre au plus tôt l'impact qu'elle aura sur la configuration et les performances de l'avion peut permettre de choisir les configurations qui présentent le meilleur rapport bénéfice sur risque ainsi que de réduire le temps de conception ultérieur et donc les coûts. Cette thèse introduit une nouvelle méthodologie pour la résolution d'un problème d'optimisation de configuration avion affecté par de l'incertitude. Dans un premier temps, la source principale d'incertitude présente à ce stade du projet est identifiée comme étant de l'incertitude de prédiction des modèles de simulation. Cette incertitude est de type épistémique. Elle est quantifiée à l'aide d'outils probabilistes. Pour ce faire, et en nous inspirant de la loi Béta, nous avons créé une nouvelle loi de probabilité générique, capable de s'ajuster à des distributions de formes très différentes, intitulée distribution Beta-Mystique. Dans un second temps, nous réalisons des études de propagation d'incertitudes à l'aide des méthodes de Monte Carlo et de propagation des moments, afin d'analyser la robustesse d'une configuration avion par rapport à une quantité d'incertitude donnée. Enfin, une optimisation sous contraintes probabilistes est résolue afin de générer des configurations avions robustes. Deux stratégies sont mises en place : l'approximation des contraintes probabilistes à l'aide de surfaces de réponses et la résolution du problème à l'aide de la méthode de propagation des moments
Conceptual aircraft sizing is the first step in the development project of a passenger transport aircraft. Classically, in this phase, a lot of aircraft configurations are compared after having been globally sized thanks to a deterministic, multidisciplinary and constrained optimisation problem. The purpose is to determine the main characteristics of the airplane according to a set of Top Level Requirements. At preliminary stage, designers have to deal with limited knowledge and high uncertainty when solving this problem. Managing that uncertainty is a major issue: assessing its impact on the design in the early stage allows to save time and cost. This PhD thesis introduces a new methodology to solve the aircraft design optimisation affected by uncertainty. First of all, the main source of uncertainty involved at this stage is identified as predictive model uncertainty, which is part of epistemic uncertainty. This uncertainty is quantified within a probabilistic framework. For that purpose, based on the Beta distribution, we create a new generic distribution function able to assume a wide range of distribution shapes: it is called Beta-Mystique distribution. Second of all, we realise uncertainty propagation studies with Monte Carlo and moment propagation methods, in order to analyse the robustness of aircraft configuration according to a set of uncertainties. Finally, a chance constrained optimisation is solved to produce a robust aircraft configuration. Two strategies are considered: the use of Surrogate models to approximate the probabilities and the resolution of the optimisation problem thanks to the moment propagation method
14

Hu, Xiaosu, and Xiaosu Hu. "Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00629650.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé " os-prothèse non cimentée : DePuy Corail® " a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel.
15

Hu, XiaoSu. "Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"." Thesis, Clermont-Ferrand 2, 2010. http://www.theses.fr/2010CLF22065/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé « os-prothèse non cimentée : DePuy Corail® » a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel
The hip arthroplasty with cementless hip prosthesis is a solution usually used for the patients suffering the problems of the musculoskeletal system. However, such a solution has a major disadvantage, pointed by all users : the lack of primary stability of the prosthesis. This weakness can cause serious complications or failure of the surgery. Therefore, to achieve a good primary fixation is a crucial point of this type of surgery to ensure a short and a long term clinical satisfaction. In order to better understand this central issue, a preoperative track is adopted. A finite element model to describe the mechanical behavior of the coupled system " femur-cementless prosthesis : DePuy Corail® "has been created and validated by the experiments in vitro. Then, in order to take into account the high variability of model parameters, inherent to the nature of the problem, the stochastic modeling of random input parameters has been introduced and a mechanical-probabilistic strategy has been proposed, on the one hand to quantify, in probabilistic terms, the effect, on the response, of the uncertainties affecting the input parameters of the model, and on the other hand to evaluate the primary stability of the bone-prosthesis system in reliability context. The practical implementation of this approach is realized by using the numerical tools based on the standard Monte Carlo method and the stochastic collocation procedure. The originality of the work presented is primarily in the proposition of a probabilistic methodology capable of taking into account the uncertainties in the problem of primary stability of cementless hip prostheses. It also lies in the potentiality of this methodology to be transplantable easily in industrial context
16

Benoit, Jean-Christophe. "Développement d'un code de propagation des incertitudes des données nucléaires sur la puissance résiduelle dans les réacteurs à neutrons rapides." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-01064275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s'inscrit dans le domaine de l'énergie nucléaire, de l'aval du cycle du combustible et du calcul des incertitudes. Le CEA doit concevoir le prototype ASTRID, réacteur à neutrons rapides refroidi au sodium (RNR), qui est l'un des concepts retenus au sein du forum Génération IV et dont la puissance résiduelle et l'estimation de son incertitude ont un impact important. Ce travail consiste à développer un code de propagation des incertitudes des données nucléaires sur la puissance résiduelle dans les RNR.La démarche s'est déroulée en trois temps.La première étape a permis de limiter le nombre de paramètres intervenant dans le calcul de la puissance résiduelle. Pour cela, un essai de puissance résiduelle sur le réacteur PHENIX (PUIREX 2008) a été interprété de façon à valider expérimentalement le formulaire d'évolution DARWIN pour les RNR et à quantifier les termes sources de la puissance résiduelle.La deuxième étape a eu pour but de développer un code de propagation des incertitudes : CyRUS (Cycle Reactor Uncertainty and Sensitivity). Une méthode de propagation déterministe a été retenue car elle permet des calculs rapides et fiables. Les hypothèses de linéarité et de normalité qu'elle entraîne ont été validées théoriquement. Le code a également été comparé avec succès à un code stochastique sur l'exemple de la fission élémentaire thermique de l'235U.La dernière partie a été une application du code sur des expériences de puissance résiduelle d'un réacteur, de bilan matière d'une aiguille combustible et d'une fission élémentaire de l'235U. Le code a démontré des possibilités de retour d'expériences sur les données nucléaires impactant l'incertitude de cette problématique.Deux résultats principaux ont été mis en évidence. Tout d'abord, les hypothèses simplificatrices des codes déterministes sont compatibles avec un calcul précis de l'incertitude de la puissance résiduelle. Ensuite, la méthode développée est intrusive et permet un retour d'expérience sur les données nucléaires des expériences du cycle. En particulier, ce travail a montré qu'il est déterminant de mesurer précisément les rendements de fission indépendants et de déterminer leurs matrices de covariances afin d'améliorer la précision du calcul de la puissance résiduelle.
17

Benoit, Jean-christophe. "Développement d’un code de propagation des incertitudes des données nucléaires sur la puissance résiduelle dans les réacteurs à neutrons rapides." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112254/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s’inscrit dans le domaine de l’énergie nucléaire, de l’aval du cycle du combustible et du calcul des incertitudes. Le CEA doit concevoir le prototype ASTRID, réacteur à neutrons rapides refroidi au sodium (RNR), qui est l’un des concepts retenus au sein du forum Génération IV et dont la puissance résiduelle et l’estimation de son incertitude ont un impact important. Ce travail consiste à développer un code de propagation des incertitudes des données nucléaires sur la puissance résiduelle dans les RNR.La démarche s’est déroulée en trois temps.La première étape a permis de limiter le nombre de paramètres intervenant dans le calcul de la puissance résiduelle. Pour cela, un essai de puissance résiduelle sur le réacteur PHENIX (PUIREX 2008) a été interprété de façon à valider expérimentalement le formulaire d’évolution DARWIN pour les RNR et à quantifier les termes sources de la puissance résiduelle.La deuxième étape a eu pour but de développer un code de propagation des incertitudes : CyRUS (Cycle Reactor Uncertainty and Sensitivity). Une méthode de propagation déterministe a été retenue car elle permet des calculs rapides et fiables. Les hypothèses de linéarité et de normalité qu’elle entraîne ont été validées théoriquement. Le code a également été comparé avec succès à un code stochastique sur l’exemple de la fission élémentaire thermique de l’235U.La dernière partie a été une application du code sur des expériences de puissance résiduelle d’un réacteur, de bilan matière d’une aiguille combustible et d’une fission élémentaire de l’235U. Le code a démontré des possibilités de retour d’expériences sur les données nucléaires impactant l’incertitude de cette problématique.Deux résultats principaux ont été mis en évidence. Tout d’abord, les hypothèses simplificatrices des codes déterministes sont compatibles avec un calcul précis de l’incertitude de la puissance résiduelle. Ensuite, la méthode développée est intrusive et permet un retour d’expérience sur les données nucléaires des expériences du cycle. En particulier, ce travail a montré qu’il est déterminant de mesurer précisément les rendements de fission indépendants et de déterminer leurs matrices de covariances afin d’améliorer la précision du calcul de la puissance résiduelle
This PhD study is in the field of nuclear energy, the back end of nuclear fuel cycle and uncertainty calculations. The CEA must design the prototype ASTRID, a sodium cooled fast reactor (SFR) and one of the selected concepts of the Generation IV forum, for which the calculation of the value and the uncertainty of the decay heat have a significant impact. In this study is developed a code of propagation of uncertainties of nuclear data on the decay heat in SFR.The process took place in three stages.The first step has limited the number of parameters involved in the calculation of the decay heat. For this, an experiment on decay heat on the reactor PHENIX (PUIREX 2008) was studied to validate experimentally the DARWIN package for SFR and quantify the source terms of the decay heat.The second step was aimed to develop a code of propagation of uncertainties : CyRUS (Cycle Reactor Uncertainty and Sensitivity). A deterministic propagation method was chosen because calculations are fast and reliable. Assumptions of linearity and normality have been validated theoretically. The code has also been successfully compared with a stochastic code on the example of the thermal burst fission curve of 235U.The last part was an application of the code on several experiments : decay heat of a reactor, isotopic composition of a fuel pin and the burst fission curve of 235U. The code has demonstrated the possibility of feedback on nuclear data impacting the uncertainty of this problem.Two main results were highlighted. Firstly, the simplifying assumptions of deterministic codes are compatible with a precise calculation of the uncertainty of the decay heat. Secondly, the developed method is intrusive and allows feedback on nuclear data from experiments on the back end of nuclear fuel cycle. In particular, this study showed how important it is to measure precisely independent fission yields along with their covariance matrices in order to improve the accuracy of the calculation of the decay heat
18

Clamens, Olivier. "Analyse et propagation des incertitudes associées à la dépressurisation de l’Hélium 3 sur les transitoires de puissance du réacteur CABRI." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI061/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
CABRI est un réacteur piscine conçu pour tester du combustible irradié dans des conditions accidentelles de type RIA, c'est à dire d'insertion intempestive de réactivité.Un circuit dédié de dépressurisation d'hélium 3, contenu dans les barres transitoires, permet d'injecter jusqu'à 4 $ de réactivité contrée majoritairement par l'effet Doppler quand la puissance atteint en quelques millisecondes jusqu'à 200000 fois la puissance initiale de 100 kW.La thèse présente les améliorations apportées à la prédiction des transitoires et les études d'incertitudes qui en découlent.Le calcul par cinétique ponctuelle couplée à la thermohydraulique 1D et échanges de chaleur des transitoires de puissance CABRI a été renforcé par l'ajout de métamodèles basés sur des analyses expérimentales et des calculs Best-Estimate de la dépressurisation d'hélium 3, des effets en réactivité et des paramètres cinétiques.L'amélioration de la modélisation des transitoires de puissance a eu un impact positif sur la prédiction des essais CABRI.Le code SPARTE, associé à la plate-forme URANIE, ont permis de propager les incertitudes expérimentales et de modélisation.Finalement, l'optimisation des transitoires pour améliorer la conception d'expériences dans CABRI est abordée
CABRI is a pool type pulsed reactor designed for studying pre-irradiated nuclear fuel behavior under RIA (Reactivity Initiated Accident) conditions.The helium-3 depressurization from the transient rods system allows the insertion of up to 4 $ reactivity mainly countered by the Doppler effect when the power reaches in few milliseconds up to 200,000 times the initial 100~kW power.This thesis presents the improvements added to the power transients prediction and the associated uncertainties studies.The point kinetics calculation coupled with 1D thermal-hydraulics and heat transfer has been improved by the addition of surrogate models based on experimental analysis and Best-Estimate calculations of the helium-3 depressurization and of the reactivity effects and of the kinetics parameters.The power transients modeling improvements have a positiv impact on the CABRI tests prediction.The propagation of the experimental and of the modeling uncertainties was realized with the SPARTE code and the URANIE uncertainty platform.Finally, the power transients characteristics optimization is approached in order to improve the CABRI experiments designing
19

Li, Zhao. "Développement multipolaire en harmoniques sphériques et propagation des incertitudes appliqués à la modélisation de source de rayonnement en compatibilité électromagnétique." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC049/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec les progrès de la technologie, la densité de puissance des appareils électriques augmente, ce qui conduit à une augmentation des interférences électromagnétiques entre deux systèmes d’électroniques de puissance. Ces interférences peuvent engendrer un dysfonctionnement des appareillages. Afin d’éviter de tels problèmes, une grande quantité de vérifications expérimentaux sont nécessaires après le développement d’un prototype, ce qui conduira à un surcoût important dans son cycle industriel. Cette thèse a pour objectif de prendre en compte des problèmes de compatibilité électromagnétique en champ proche dès la phase de conception d’un produit. Ceci est basé sur le développement en harmoniques sphériques du rayonnement parasite engendré par les dispositifs ou les composants d’un dispositif. Les coefficients harmoniques d’un dispositif permettent non seulement de modéliser ses champs proches par une source ponctuelle, mais également de déterminer le couplage inductif avec les autres. Dans ce contexte, la méthode du développement multipolaire est étudiée théoriquement, numériquement (par le logiciel Flux3D) et expérimentalement dans ce travail. Dans ce document, le nouveau système de mesure automatisé est présenté et différentes approches liées à la solution de ce problème sont étudiées, tels que le choix optimal d’origine du développement, la compensation d’erreurs des mesures dues aux sources secondaires, l’étude de propagation d’incertitude dans le problème inverse et prise en compte d’informations a priori, etc
With the advances in technology, the power density of electrical equipment is increasing, which leads to an increase in electromagnetic interference between two power electronic systems. This interference may cause the electronic equipment to malfunction. In order to avoid such problems, a large number of experimental verifications are necessary after the development of a prototype, which leads to a significant additional cost in its industrial cycle. This thesis aims at taking into account the problems of near-field electromagnetic compatibility in the design phase of a product. The method is based on the development in spherical harmonics of the parasitic radiation generated by the devices or the components of the device. The harmonic coefficients of a device make it possible not only to model its near field by a punctual source, but also to determine the inductive coupling with the others. In this context, the multipole expansion method is studied theoretically, numerically (by the software Flux3D) and experimentally in this work. In this document, the new automated measuring system is presented and different approaches related to the solution of this problem are then studied, such as the optimal choice of the development origin, the error compensation of the measurements due to the secondary sources, the study of the propagation of uncertainty in the inverse problem and how to take into account the a priori information, etc
20

Volat, Ludovic. "Développement d’une méthode stochastique de propagation des incertitudes neutroniques associées aux grands coeurs de centrales nucléaires : application aux réacteurs de génération III." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0330/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réacteurs nucléaires de génération III s'inscrivent dans la continuité des réacteurs à eau sous pression actuels, tout en présentant un certain nombre d'améliorations en terme de sûreté, de rendement et d'environnement.Parmi les caractéristiques de ces réacteurs, la taille importante du coeur et l'utilisation d'un réflecteur lourd se traduisent par une meilleure efficacité neutronique et une meilleure protection de la cuve.Du fait de leur grande taille, le risque de basculement de la nappe de puissance neutronique est exacerbé. Le basculement est donc un paramètre d'intérêt à prendre en compte dans les études de sûreté. Par ailleurs, le calcul de l'incertitude associée à la nappe de puissance neutronique est difficilement atteignable par les méthodes déterministes actuellement implémentées dans les codes de neutronique.Ce travail de thèse a donc porté sur le développement d'une méthode stochastique innovante de propagation des incertitudes neutroniques. Tout en étant basée sur des résultats probabilistes, elle tire parti de la puissance croissante des moyens de calcul informatique afin de parcourir tous les états du réacteur statistiquement prévus.Après avoir été validée, cette méthode a été appliquée à un benchmark de grand coeur de l'OCDE/AEN avec des valeurs de covariances issues d'une analyse critique. Ainsi, pour ce système, l'incertitude associée au facteur de multiplication effectif des neutrons keff $(1\sigma)$ vaut 638 pcm . Par ailleurs, le basculement total vaut 8.8 \% $(1\sigma)$, et l'incertitude maximale associée à l'insertion d'un groupe de barres absorbantes utilisées pour son pilotage vaut 11~\% $(1\sigma)$
Generation III Light Water Reactors undoubtedly follow design guidelines comparable to those of current PWRs. Furthermore, they take advantage of enhanced features in terms of safety, energy efficiency, radiation protection and environment. Then, we talk about an evolutionary approach. Amongst those improvements, the significant size and the use of a heavy reflector translate into a better neutronics efficacy, leading to intrinsic enrichment benefits then to natural uranium profits. They contribute to the core vessel preservation as well.Because of their large dimensions, the neutronic bulge of this kind of reactors is emphasized. Therefore, it is a parameter of interest in the reactor safety studies. Nevertheless, the uncertainty related to the radial power map is hardly reachable by using the numerical methods implemented in the neutronics codes.Given the above, this PhD work aims to develop an innovative stochastic neutronics uncertainties propagation method. By using recent probabilistic results, it makes good use of the growing calculation means in order to explore all the physical states of the reactor statiscally foreseen.After being validated , our method has been applied to a reactor proposed in the framework of a large core OECD/NEA international benchmark with carefully chosen covariances values. Thus, for this system, the uncertainties related to the keff reaches 638~pcm $(1\sigma)$. What is more, the total bulge equals 8.8~\% $(1\sigma)$ and the maximal uncertainty related to the insertion of a group of control rods reaches 11~\% $(1\sigma)$
21

Hally, Alan. "Prévisibilité des épisodes méditerranéens de précipitations intenses : propagation des incertitudes liées aux paramétrisations de la microphysique des nuages et de la turbulence." Phd thesis, Toulouse 3, 2013. http://thesesups.ups-tlse.fr/3241/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De septembre à novembre, la région méditerranéenne nord-occidentale peut être le siège d'épisodes de fortes précipitations (HPE selon l'acronyme anglais). Le sud-est de la France fait partie des régions particulièrement affectées par ces événements. Au cours des années récentes, la prévision numérique de tels événements s'est considérablement améliorée. Toutefois, en raison des interactions complexes et multi-échelles qui régissent les systèmes nuageux convectifs, les modèles demeurent entâchés d'erreur, principalement dans leur représentation des processus physiques. En particulier, les paramétrisations utilisées pour décrire les processus turbulents et nuageux reposent sur d'inévitables hypothèses simplificatrices, qui vont clairement restreindre la précision des prévisions. Afin de prendre en compte les incertitudes associées à ces paramétrisations, nous avons développé des méthodes de perturbations et évalué celles-ci pour la prévision d'ensemble à l'échelle convective. Les perturbations sont appliquées soit aux tendances temporelles des processus microphysiques et turbulents, soit aux paramètres ajustables des paramétrisations microphysiques. L'approche a été testée et évaluée sur deux situations convectives idéalisées avec l'objectif de mettre en évidence les processus menant à la plus grande dispersion dans le champ de précipitation. Suite à ces tests, des prévisions d'ensemble ont été effectuées pour sept situations réelles ayant affecté le sud-est de la France lors des automnes 2010, 2011 et 2012. La plus grande dispersion est obtenue en perturbant simultanément et aléatoirement les tendances temporelles des processus microphysiques et turbulents. Le niveau de dispersion est variable selon la nature de l'événement précipitant. Il est généralement plus élevé pour les situations associées à des flux incidents modérés et des précipitations se produisant en plaine. Pour certaines situations, les perturbations des processus physiques induisent une dispersion comparable à celle générée par des perturbations de conditions initiales et aux limites. Nos résultats suggèrent que, bien que l'impact des perturbations physiques soit modéré, il est suffisamment important pour justifier leur prise en compte dans un système de prévision d'ensemble opérationnel
The north-western Mediterranean region is susceptible to heavy precipitation events (HPEs) between the months of September and November with south-eastern France being one of the areas most affected. Numerical forecasting of such events has drastically improved in recent years. However, because of the complex and multiscale interactions taking place in deep convective cloud systems, model errors remain, especially in the representation of the physical processes. In particular, the cloud physics and turbulence parameterisations rely upon unavoidable simplifications and assumptions which clearly limit the potential accuracy of deterministic forecasts in capturing extreme weather events. To represent the uncertainties associated with these parameterisations, a probabilistic methodology using ensemble prediction systems (EPSs) was proposed. Perturbations were introduced upon the time tendencies of the warm and cold microphysical and turbulence processes, as well as the adjustable parameters of the microphysical parameterisations. This approach was tested and assessed upon two idealised convective events with the aim of uncovering the processes which induced the greatest dispersion in the surface rainfall. Following these tests, ensembles were constructed for seven real world events which occurred over south-eastern France in the autumns of 2010, 2011 and 2012. Simultaneously perturbing the time tendencies of the warm and cold microphysical and turbulence processes was shown to produce the greatest degree of dispersion in the rainfall pattern with the level of that dispersion depending upon the nature of the precipitating event. The dispersion is gen- erally more important when the incident flow is weak to moderate and precipitation is observed on the plains. For certain events, the level of dispersion introduced by perturbations upon the physical processes is similar to that generated by perturbing the initial and boundary conditions. It is concluded that, even though the impact of perturbing the physical parameterisations is moderate, it is sufficiently important to warrant an inclusion of such perturbations in an operational EPS
22

Hally, Alan. "Prévisibilité des épisodes méditerranéens de précipitations intenses : Propagation des incertitudes liées aux paramétrisations de la microphysique des nuages et de la turbulence." Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00939287.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De septembre à novembre, la région méditerranéenne nord-occidentale peut être le siège d'épisodes de fortes précipitations (HPE selon l'acronyme anglais). Le sud-est de la France fait partie des régions particulièrement affectées par ces événements. Au cours des années récentes, la prévision numérique de tels événements s'est considérablement améliorée. Toutefois, en raison des interactions complexes et multi-échelles qui régissent les systèmes nuageux convectifs, les modèles demeurent entachés d'erreur, principalement dans leur représentation des processus physiques. En particulier, les paramétrisations utilisées pour décrire les processus turbulents et nuageux reposent sur d'inévitables hypothèses simplificatrices, qui vont clairement restreindre la précision des prévisions. Afin de prendre en compte les incertitudes associées à ces paramétrisations, nous avons développé des méthodes de perturbations et évalué celles-ci pour la prévision d'ensemble à l'échelle convective. Les perturbations sont appliquées soit aux tendances temporelles des processus microphysiques et turbulents, soit aux paramètres ajustables des paramétrisations microphysiques. L'approche a été testée et évaluée sur deux situations convectives idéalisées avec l'objectif de mettre en évidence les processus menant à la plus grande dispersion dans le champ de précipitation. Suite à ces tests, des prévisions d'ensemble ont été effectuées pour sept situations réelles ayant affecté le sud-est de la France lors des automnes 2010, 2011 et 2012. La plus grande dispersion est obtenue en perturbant simultanément et aléatoirement les tendances temporelles des processus microphysiques et turbulents. Le niveau de dispersion est variable selon la nature de l'événement précipitant. Il est généralement plus élevé pour les situations associées à des flux incidents modérés et des précipitations se produisant en plaine. Pour certaines situations, les perturbations des processus physiques induisent une dispersion comparable à celle générée par des perturbations de conditions initiales et aux limites. Nos résultats suggèrent que, bien que l'impact des perturbations physiques soit modéré, il est suffisamment important pour justifier leur prise en compte dans un système de prévision d'ensemble opérationnel.
23

Dumont, Nicolas. "Méthodes numériques et modèle réduit de chimie tabulée pour la propagation d'incertitudes de cinétique chimique." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation numérique joue aujourd'hui un rôle majeur dans le domaine de la combustion, que ce soit au niveau de la recherche en offrant la possibilité de mieux comprendre les phénomènes ayant lieu au sein des écoulements réactifs ou au niveau du développement de nouveaux systèmes industriels par une diminution des coûts liés à la conception de ces systèmes. A l'heure actuelle, la simulation aux grandes échelles est l'outil le mieux adapté à la simulation numérique d'écoulements réactifs turbulents. Cette simulation aux grandes échelles d'écoulements réactifs n'est en pratique possible que grâce à une modélisation des différents phénomènes:- la turbulence est modélisée pour les plus petites structures permettant de n'avoir à résoudre que les plus grandes structures de l'écoulement et ainsi réduire le coût de calcul- la chimie des différentes espèces réactives est modélisée à l'aide de méthodes de réduction permettant de considérablement réduire le coût de calculLa maturité de la simulation aux grandes échelles d'écoulements réactifs en fait aujourd'hui un outil fiable, prédictif et prometteur. Il fait désormais sens de s'intéresser à l'impact des paramètres impliqués dans les différents modèles sur le résultat de la simulation. Cette étude de l'impact des paramètres de modélisation peut être vue sous l'angle de la propagation d'incertitudes, et peut donner des informations intéressantes à la fois d'un côté pratique pour la conception robuste de systèmes mais également d'un côté théorique afin d'améliorer les modèles utilisées et d'orienter les mesures expérimentales à réaliser afin d'améliorer la fiabilité de ces modèles.Le contexte de cette thèse est le développement de méthodes efficaces permettant la propagation d'incertitudes présentes dans les paramètres de cinétique chimique des mécanismes réactionnels au sein de simulation aux grandes échelles, ces méthodes devant être non intrusive afin de profiter de l'existence des différents codes de calcul qui sont des outils nécessitant de lourds moyens pour leur développement. Une telle propagation d'incertitude à l'aide d'une méthode de force brute souffre du "fléau de la dimension" du fait du grand nombre de paramètres de cinétique chimique, impliquant une impossibilité pratique avec les moyens de calculs actuels et justifiant le développement de méthodes efficaces.L'objectif de la thèse est donc le développement d'un modèle réduit utilisable pour la propagation d'incertitudes dans la simulation aux grandes échelles. La prise en main et l'implémentation de différents outils issus de la propagation d'incertitudes a été un travail préliminaire indispensable dans cette thèse afin d'amener ces connaissances et compétences au sein du laboratoire EM2C.La méthode développée dans cette thèse pour la propagation d'incertitudes des paramètres de cinétique chimique se restreint aux cas d'une modélisation de la chimie dans laquelle l'avancement du processus de combustion est résumé par l'évolution d'une variable d'avancement donnée par une équation de transport, l'accès aux autres informations se faisant grâce à l'utilisation d'une table. Au travers de l'étude de l'évolution d'un réacteur adiabatique à pression constante contenant un mélange homogène d'air et de dihydrogène, il est montré qu'une grande partie des incertitudes d'un tel système peuvent être expliquées grâce aux incertitudes de la variable d'avancement. Cela permet de définir une table chimique utilisable pour la propagation d'incertitudes des paramètres de cinétique chimique dans les simulations aux grandes échelles. L'introduction des incertitudes se fait alors uniquement par la modélisation du terme source présent dans l'équation de transport de la variable d'avancement, lequel peut être paramétré à l'aide de quelques paramètres incertains évitant ainsi le "fléau de la dimension"
Numerical simulation plays a key role in the field of combustion today, either in the research area by permitting a better understanding of phenomenons taking place inside reactive flows or in the development of industrial application by reducing designing cost of systems. Large Eddy Simulation is at the time the most suited tool for the simulation of reactive flows. Large Eddy Simulation of reactive flows is in practice only possible thanks to a modeling of different phenomenons:- turbulence is modeled for small structures allowing to resolve only big structures which results in lower computational cost- chemistry is modeled using reduction methods which allows to drastically reduce computational costThe maturity of Large Eddy Simulation of reactive flows makes it today a reliable, predictive and promising tool. It now makes sense to focus on the impact of the parameters involved in the different models on the simulation results. This study of the impact of the modeling parameters can be seen from the perspective of uncertainties propagation, and can give interesting informations both from a practical side for the robust design of systems but also on the theoretical side in order to improve the models used and guide the experimental measurements to be made for the reliability improvement of these models.The context of this thesis is the development of efficient methods allowing the propagation of uncertainties present in the chemical kinetic parameters of the reaction mechanisms within Large Eddy Simulation, these methods having to be non-intrusive in order to take advantage of the existence of the different computation codes which are tools requiring heavy means for their development. Such a propagation of uncertainties using a brute-force method suffers from the "curse of dimensionality" because of the large number of chemical kinetic parameters, implying a practical impossibility with the current means of computation which justifies the development of efficient methods.The objective of the thesis is the development of a reduced model that can be used for uncertainties propagation in Large Eddy simulations. The handling and implementation of various tools resulting from the uncertainties propagation framework has been an essential preliminary work in this thesis in order to bring this knowledge and skills into the EM2C laboratory.The method developed in this thesis for the propagation of chemical kinetic parameters uncertainties is limited to chemistry models in which the advancement of the combustion process is summarized by the evolution of a progress variable given by a transport equation, the access to other informations being made through the use of a table. Through the study of the evolution of a constant pressure adiabatic reactor containing a homogeneous mixture of air and dihydrogen, it is shown that a large part of the uncertainties of such a system can be explained by the uncertainties of the progress variable. This makes it possible to define a chemical table that can be used to propagate uncertainties of chemical kinetic parameters in Large Eddy Simulations. The introduction of the uncertainties is then done only by the modeling of the source term present in the transport equation of the progress variable, which can be parameterized with the help of few uncertain parameters thus avoiding the "curse of dimensionality"
24

Navas, Nunez Rafael. "Modélisation hydrologique distribuée des crues en région Cévennes-Vivarais : impact des incertitudes liées à l'estimation des précipitations et à la paramétrisation du modèle." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est connu qu’avoir un système d’observation de la pluie de haute résolution spatio – temporelle est crucial pour obtenir de bons résultats dans la modélisation pluie – écoulement. Le radar est un outil qui donne des estimations quantitatives de precipitation avec une très bonne résolution. Lorsqu’il est fusionné avec un réseau des pluviomètres les avantages des deux systèmes sont obtenus. Cependant, les estimations fournies par le radar ont des incertitudes différentes à celles qui sont obtenus avec les pluviomètres. Dans le processus de calcul pluie – écoulement l'incertitude des précipitations interagit avec l'incertitude du modèle hydrologique. L’objectif de ce travail est d’étudier les méthodes utilisées pour quantifier l'incertitude dans l'estimation des précipitations par fusion radar – pluviomètres et de l'incertitude dans la modélisation hydrologique, afin de développer une méthodologie d'analyse de leurs contributions individuelles au traitement pluie - écoulement.Le travail est divisé en deux parties, la première cherche à évaluer: Comment peut-on quantifier l'incertitude de l'estimation des précipitations par radar? Pour répondre à la question, l'approche géostatistique par Krigeage avec Dérive Externe (KED) et Génération Stochastique de la précipitation a été utilisée, qui permet de modéliser la structure spatio – temporaire de l’erreur. La méthode a été appliquée dans la région des Cévennes - Vivarais (France), où il y a un système très dense d'observation. La deuxième partie explique: Comment pourrais être quantifiée l'incertitude de la simulation hydrologique qui provient de l'estimation de précipitation par radar et du processus de modélisation hydrologique? Dans ce point, l'outil de calcul hydrologique à Mesoéchelle (HCHM) a été développé, c’est un logiciel hydrologique distribuée et temps continu, basé sur le Numéro de Courbe et l’Hydrographe Unitaire. Il a été appliqué dans 20 résolutions spatio - temporelles allant de 10 à 300 km2 et 1 à 6 heures dans les bassins de l’Ardèche (~ 1971 km2) et le Gardon (1810 km2). Apres une analyse de sensibilité, le modèle a été simplifié avec 4 paramètres et l’incertitude de la chaîne de processus a été analysée: 1) Estimation de precipitation; 2) Modélisation hydrologique; et 3) Traitement pluie - écoulement, par l’utilisation du coefficient de variation de l'écoulement simulé.Il a été montré que KED est une méthode qui fournit l’écart type de l’estimation des précipitations, lequel peut être transformé dans une estimation stochastique de l’erreur locale. Dans la chaîne des processus: 1) L'incertitude dans l'estimation de précipitation augmente avec la réduction de l’échelle spatio – temporelle, et son effet est atténué par la modélisation hydrologique, vraisemblablement par les propriétés de stockage et de transport du bassin ; 2) L'incertitude de la modélisation hydrologique dépend de la simplification des processus hydrologiques et pas de la surface du bassin ; 3) L'incertitude dans le traitement pluie - écoulement est le résultat de la combinaison amplifiée des incertitudes de la précipitation et la modélisation hydrologique
It is known that having a precipitation observation system at high space - time resolution is crucial to obtain good results in rainfall - runoff modeling. Radar is a tool that offers quantitative precipitation estimates with very good resolution. When it is merged with a rain gauge network the advantages of both systems are achieved. However, radars estimates have different uncertainties than those obtained with the rain gauge. In the modeling process, uncertainty of precipitation interacts with uncertainty of the hydrological model. The objective of this work is: To study methods used to quantify the uncertainty in radar – raingauge merge precipitation estimation and uncertainty in hydrological modeling, in order to develop a methodology for the analysis of their individual contributions in the uncertainty of rainfall - runoff estimation.The work is divided in two parts, the first one evaluates: How the uncertainty of radar precipitation estimation can be quantified? To address the question, the geostatistical approach by Kriging with External Drift (KED) and Stochastic Generation of Precipitation was used, which allows to model the spatio - temporal structure of errors. The method was applied in the Cévennes - Vivarais region (France), where there is a very rich observation system. The second part explains: How can it be quantified the uncertainty of the hydrological simulation coming from the radar precipitation estimates and hydrological modeling process? In this point, the hydrological mesoscale computation tool was developed; it is distributed hydrological software in time continuous, within the basis of the Curve Number and the Unit Hydrograph. It was applied in 20 spatio-temporal resolutions ranging from 10 to 300 km2 and 1 to 6 hours in the Ardèche (~ 1971 km2) and the Gardon (1810 km2) basins. After a sensitivity analysis, the model was simplified with 4 parameters and the uncertainty of the chain of process was analyzed: 1) Precipitation estimation; 2) Hydrological modeling; and 3) Rainfall - runoff estimation, by using the coefficient of variation of the simulated flow.It has been shown that KED is a method that provides the standard deviation of the precipitation estimation, which can be transformed into a stochastic estimation of the local error. In the chain of processes: 1) Uncertainty in precipitation estimation increases with decreasing spatio-temporal scale, and its effect is attenuated by hydrological modeling, probably due by storage and transport properties of the basin; 2) The uncertainty of hydrological modeling depends on the simplification of hydrological processes and not on the surface of the basin; 3) Uncertainty in rainfall - runoff treatment is the result of the amplified combination of precipitation and hydrologic modeling uncertainties
25

Molto, Quentin. "Estimation de la biomasse en forêt tropicale humide : propagation des incertitudes dans la modélisation de la distribution spatiale de la biomasse en Guyane Française." Thesis, Antilles-Guyane, 2012. http://www.theses.fr/2012AGUY0567/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les forêts tropicales contiennent dans leur biomasse aérienne un stock de carbone important à l’échelle de la planète. Mesurer ce stock et comprendre son fonctionnement permet de mieux saisir les enjeux liés à sa protection, sa destruction ou sa modification, ainsi que son rôle dans le cycle du carbone et les mécanismes climatiques globaux. Dans le cadre des problématiques économiques et écologiques liés au climat, les forêts sont progressivement prises en compte dans les programmes internationaux de mesures visant à réduire l’impact anthropique sur le climat (Protocole de Kyoto, 1998 ; Accord de Copenhague, 2009). L’intégration des forêts dans les mécanismes financiers liés au marché du carbone est clairement envisagée dans les années à venir (marché de carbone « d’origine forestière »).L’estimation de la biomasse aérienne d’une parcelle de forêt inventoriée nécessite l’utilisation successive de plusieurs modèles. Dans ces parcelles, le diamètre et l’espèce de chaque arbre sont renseignés. Ensuite, ces parcelles sont utilisées comme références pour l’extrapolation spatiale des valeurs de biomasse. Cette extrapolation repose souvent sur le traitement de signaux aériens (avions, satellites). Il est aussi possible d’utiliser covariables environnementales (climat, géologie, …).L’incertitude associée à l’estimation de la biomasse d’une région est le résultat de toutes les incertitudes associées à ces différents processus. Les connaissances actuelles ne nous permettent pas de quantifier cette incertitude. L’objectif de la thèse est de développer une méthodologie d’estimation de la biomasse qui permette la propagation des incertitudes ainsi que l’identification des sources de cette incertitude.Modèle de hauteur : Nous proposons un nouveau modèle de hauteur pour les forêts tropicales. Les paramètres de ce modèle ont un sens écologique et peuvent être prédits par des variables décrivant le peuplement sur lequel il est appliqué. Nous avons utilisé les données des projets Amalin et Bridge et sélectionné 42 parcelles réparties en Guyane dans lesquelles le diamètre et la hauteur de chaque arbre ont été mesurés.Modèle de densité de bois : Un modèle à été conçu pour associer à chaque espèce une distribution de densité de bois et non une valeur fixe. Nous avons utilisé les données du projet Bridge dans lequel la densité de bois a été mesurée sur 2504 arbres représentant 466 espèces.Modèle de biomasse: Nous avons montré par une analyse de sensibilité que les incertitudes des prédictions de hauteur et de densité de bois n’avaient qu’une part négligeable dans l’incertitude des prédictions de biomasse. L’amélioration de la précision de ces modèles n’est donc pas une priorité. En revanche, le modèle de hauteur peut être une source de biais.Modélisation spatiale : Les modèles développés ont été appliqués à différents réseaux de parcelles couvrant bien la zone littorale guyanaise : inventaires papetiers de l’ONF, réseau Guyafor, projet Amalin… Les prédictions de biomasse de ces parcelles sont utilisées dans un modèle spatiale. Nous produisons ainsi une carte de biomasse guyanaise associée à une carte de l’incertitude de cette estimation
Tropical forest yield and important part of the aerial vegetation carbon stock on earth. Measuring and understanding this stock distribution is crucial for the management of the tropical forests facing the actual environmental challenges (REDD+, carbon market).Aerial Biomass estimation of forest census plots requires few models depending on the precision of the inventory: diameter models, height models, wood density models. Spatial extrapolation between census plots relies on aerial data (satellite measurements, images) or ground-based data (geology, altitude).The uncertainty of the estimation of a region’s biomass is the result of the uncertainty brought by all these models. The aim of the thesis is to develop models and methods to estimate the biomass of a region while propagating the uncertainties. This is applied to the neo-tropical forest of French Guiana (South America, Guianas Plateau)
26

Daouk, Sami. "Propagation d’incertitudes à travers des modèles dynamiques d’assemblages de structures mécaniques." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN046/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors de l'étude du comportement des systèmes mécaniques, les modèles mathématiques et les paramètres structuraux sont généralement considérés déterministes. Néanmoins, le retour d'expérience montre que ces éléments sont souvent incertains, dû à une variabilité naturelle ou manque de connaissance. La quantification de la qualité et la fiabilité du modèle numérique d'un assemblage industriel reste alors une question majeure en dynamique basse-fréquence. L'objectif de cette thèse est d'améliorer le dimensionnement vibratoire des assemblages boulonnés par la mise en place d'un modèle dynamique de connecteur prenant en compte différents types et sources d'incertitudes sur des paramètres de raideur, de manière simple, efficace et exploitable dans un contexte industriel. Ces travaux s'inscrivent dans le cadre du projet SICODYN, piloté par EDF R&D, visant à caractériser et quantifier les incertitudes sur le comportement dynamique des assemblages industriels boulonnés sous les aspects numérique et expérimental. Des études comparatives de plusieurs méthodes numériques de propagation d'incertitudes montrent l'avantage de l'utilisation de la théorie des méconnaissances. Une caractérisation expérimentale des incertitudes dans les structures boulonnées est réalisée sur un banc d'essai dynamique et sur un assemblage industriel. La propagation de plusieurs faibles et fortes incertitudes à travers différents modèles dynamiques d’assemblages mécaniques permet d'aboutir à l’évaluation de l'efficacité de la théorie des méconnaissances et son applicabilité en milieu industriel
When studying the behaviour of mechanical systems, mathematical models and structural parameters are usually considered deterministic. Return on experience shows however that these elements are uncertain in most cases, due to natural variability or lack of knowledge. Therefore, quantifying the quality and reliability of the numerical model of an industrial assembly remains a major question in low-frequency dynamics. The purpose of this thesis is to improve the vibratory design of bolted assemblies through setting up a dynamic connector model that takes account of different types and sources of uncertainty on stiffness parameters, in a simple, efficient and exploitable in industrial context. This work has been carried out in the framework of the SICODYN project, led by EDF R&D, that aims to characterise and quantify, numerically and experimentally, the uncertainties in the dynamic behaviour of bolted industrial assemblies. Comparative studies of several numerical methods of uncertainty propagation demonstrate the advantage of using the Lack-Of-Knowledge theory. An experimental characterisation of uncertainties in bolted structures is performed on a dynamic test rig and on an industrial assembly. The propagation of many small and large uncertainties through different dynamic models of mechanical assemblies leads to the assessment of the efficiency of the Lack-Of-Knowledge theory and its applicability in an industrial environment
27

Ahmad, Jalaa. "Analyse modale des structures avec incertitudes par la méthode des éléments finis stochastiques spectrale." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725464.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la modélisation de structures comportant des paramètres incertains, nous nous intéressons aux caractéristiques spectrales des systèmes mécaniques. Alternatives aux méthodes de Monte-Carlo pour le traitement des problèmes de propagation d'incertitudes dans les modèles mécaniques structuraux, les méthodes d'éléments finis stochastiques (MEFS) connaissent un succès grandissant depuis une dizaine d'années, concrétisé par de nombreux travaux de recherche internationaux. Le présent travail s'inscrit dans le cadre de ces recherches. Dans cette optique, nous décrivons dans une première partie les caractéristiques spectrales, aussi bien les valeurs propres que les modes propres, des structures comportant des paramètres modélisés par des variables aléatoires ou par des champs aléatoires. Pour ce faire, nous utilisons la méthode spectrale des éléments finis stochastiques, que nous avons étendue au calcul des valeurs et vecteurs propres. Les propriétés du matériau sont modélisées par un développement de Karhunen-Loève, alors que les valeurs et les vecteurs propres sont développés sur la base du chaos polynomial. Une méthode de résolution adoptée est proposée pour le découplage du système d'équations. La méthode proposée, essentiellement valable pour les problèmes linéaires, présente l'intérêt de permettre la prise en compte, non seulement de variables aléatoires, mais également de champs stochastiques pour la modélisation probabiliste des paramètres incertains du modèle. Quatre applications à différents niveaux de complexité permettent de juger de ses possibilités. Nous étudions ensuite le couplage de la conception robuste et de la MEFSS, cette dernière représente un outil puissant pour l'optimisation de la performance dynamique des systèmes mécaniques, puisqu'elle permet d'obtenir, à moindre coût, la moyenne et l'écart-type de la réponse, afin d'évaluer la solution robuste. L'intérêt de l'outil présenté est illustré par deux exemples sur des structures en automobile.
28

Ahmad, Jalaa. "Analyse modale des structures avec incertitudes par la méthode des éléments finis stochastiques spectrale." Phd thesis, Clermont-Ferrand 2, 2009. http://www.theses.fr/2009CLF21936.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la modélisation de structures comportant des paramètres incertains, nous nous intéressons aux caractéristiques des réponses dynamiques de systèmes mécaniques. Dans cette optique, on s'applique dans une première partie à décrire les réponses dynamiques, aussi bien les valeurs propres que les modes propres, des structures comportant des paramètres modélisés par des variables aléatoires ou champs aléatoires. Pour ce faire, nous utilisons la méthode des éléments finis stochastiques spectrale, qui permet d'obtenir les caractéristiques principales des réponses. Cette méthode, essentiellement valable pour les problèmes linéaires, présente l'intérêt de permettre l'emplois, non seulement de variables aléatoires mais également de processus ou champs stochastiques pour la modèlisation probabiliste des paramètres incertains du modèle. Dans une deuxième partie, nous avons traité le problème de l'optimisation stochastique et la conception robuste des structures dynamiques
29

Rousseau, Marie. "Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00788360.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
30

Perrin, Guillaume. "Random fields and associated statistical inverse problems for uncertainty quantification : application to railway track geometries for high-speed trains dynamical responses and risk assessment." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-01001045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nouvelles attentes vis-à-vis des nouveaux trains à grande vitesse sont nombreuses: on les voudrait plus rapides, plus confortables, plus stables, tout en étant moins consommateur d'énergie, moins agressif vis-à-vis des voies, moins bruyants... Afin d'optimiser la conception de ces trains du futur, il est alors nécessaire de pouvoir se baser sur une connaissance précise de l'ensemble des conditions de circulations qu'ils sont susceptibles de rencontrer au cours de leur cycle de vie. Afin de relever ces défis, la simulation a un très grand rôle à jouer. Pour que la simulation puisse être utilisée dans des perspectives de conception, de certification et d'optimisation de la maintenance, elle doit alors être tout à fait représentative de l'ensemble des comportements physiques mis en jeu. Le modèle du train, du contact entre les roues et le rail, doivent ainsi être validés avec attention, et les simulations doivent être lancées sur des ensembles d'excitations qui sont réalistes et représentatifs de ces défauts de géométrie. En ce qui concerne la dynamique, la géométrie de la voie, et plus particulièrement les défauts de géométrie, représentent une des principales sources d'excitation du train, qui est un système mécanique fortement non linéaire. A partir de mesures de la géométrie d'un réseau ferroviaire, un paramétrage complet de la géométrie de la voie et de sa variabilité semblent alors nécessaires, afin d'analyser au mieux le lien entre la réponse dynamique du train et les propriétés physiques et statistiques de la géométrie de la voie. Dans ce contexte, une approche pertinente pour modéliser cette géométrie de la voie, est de la considérer comme un champ aléatoire multivarié, dont les propriétés sont a priori inconnues. En raison des interactions spécifiques entre le train et la voie, il s'avère que ce champ aléatoire n'est ni Gaussien ni stationnaire. Ce travail de thèse s'est alors particulièrement concentré sur le développement de méthodes numériques permettant l'identification en inverse, à partir de mesures expérimentales, de champs aléatoires non Gaussiens et non stationnaires. Le comportement du train étant très non linéaire, ainsi que très sensible vis-à-vis de la géométrie de la voie, la caractérisation du champ aléatoire correspondant aux défauts de géométrie doit être extrêmement fine, tant du point de vue fréquentiel que statistique. La dimension des espaces statistiques considérés est alors très importante. De ce fait, une attention toute particulière a été portée dans ces travaux aux méthodes de réduction statistique, ainsi qu'aux méthodes pouvant être généralisées à la très grande dimension. Une fois la variabilité de la géométrie de la voie caractérisée à partir de données expérimentales, elle doit ensuite être propagée au sein du modèle numérique ferroviaire. A cette fin, les propriétés mécaniques d'un modèle numérique de train à grande vitesse ont été identifiées à partir de mesures expérimentales. La réponse dynamique stochastique de ce train, soumis à un très grand nombre de conditions de circulation réalistes et représentatives générées à partir du modèle stochastique de la voie ferrée, a été ainsi évaluée. Enfin, afin d'illustrer les possibilités apportées par un tel couplage entre la variabilité de la géométrie de la voie et la réponse dynamique du train, ce travail de thèse aborde trois applications
31

Safatly, Elias Emile. "Méthode multiéchelle et réduction de modèle pour la propagation d'incertitudes localisées dans les modèles stochastiques." Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=cc8428f5-edf4-4ce1-96c9-42d69e43459a.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans de nombreux problèmes physiques, un modèle incertain peut être traduit par un ensmble d'équations aux dérivées partielles stochastiques. Nous nous intéressons ici à des problèmes présentant de nombreuses sources d'incertitudes localisées en espace. Dans le cadre des approches fonctionnelles pour la propagation d'incertitudes, ces problèmes présentent deux difficultés majeures. La première est que leurs solutions possèdent un caractère multi-échelle, ce qui nécessite des méthodes de réduction de modèle et des stratégies de calcul adaptées. La deuxième difficulté est associée à la réprésentation de fonctions de nombreux paramètres pour la prise en compte de nombreuses variabilités. Pour résoudre ces difficultés, nous proposons tout d'abord une méthode de décomposition de domaine multi-échelle qui exploite le caractère localisé des aléas. Un algorithme itératif est proposé, qui requiert une résolution alternée de problèmes globaux et de problèmes locaux, ces derniers étant définis sur des patchs contenant les variabilités localisées. Des méthodes d'approximation de tenseurs sont ensuite utilisées pour la gestion de la grande dimension paramétrique. La séparation multi-échelle améliore le conditionnement des problèmes à résoudre et la convergence des méthodes d'approximation de tenseurs qui est liée aux propriétés spectrales des fonctions à décomposer. Enfin, pour la prise en compte de variabilités géométriques localisées, des méthodes spécifiques basées sur les approches de domaines fictifs sont introduites
In many physical problems, an uncertain model can be represented as a set of stochastic partial differential equations. We are here interested in problems with many sources of uncertainty with a localized character in space. In the context of functional approaches for uncertainty propagation, these problems present two major difficulties. The first one is that their solutions are multi-scale, which requires model reduction methods and appropriate computational strategies. The second difficulty is associated with the representation of functions of many parameters in order to take into account many sources of uncertainty. To overcome these difficulties, we first propose a multi-scale domain decomposition method that exploits the localized side of uncertainties. An iterative algorithm is proposed, which entails the alternated resolution of global and local problems, the latter being defined on patches containing localized variabilities. Tensor approximation methods are then used to deal with high dimensional functional representations. Multi-scale separation improves the conditioning of local and global problems and also the convergence of the tensor approximation methods which is related to the spectral content of functions to be decomposed. Finally, for the handling of localized geometrical variability, specific methods based on fictitious domain approaches are introduced
32

Do, Hai Quan. "Modèles réduits et propagation d'incertitude pour les problèmes de contact frottant et d'instabilité vibratoire." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin d'améliorer la qualité des produits et tendre vers des conceptions fiables et robustes, la simulation numérique joue de nos jours un rôle clé dans de nombreux secteurs de l'ingénierie. Malgré l'utilisation de modèles de plus en plus complexes et réalistes, les corrélations entre les mesures expérimentales et les simulations déterministes ne s'avèrent pas toujours évidentes, en particulier, si le phénomène observé est de nature fugace. Afin de prendre en compte les variations possibles de comportement, des techniques de tirages multiples comme les plans d'expériences, les analyses de sensibilité ou les approches non déterministes peuvent être exploitées. Cependant, ces simulations avancées conduisent inévitablement à des temps de calcul prohibitifs qui ne sont pas en adéquation avec des phases de conception de plus en plus courtes.L'objectif de cette thèse est d'explorer de nouvelles stratégies de résolution pour les problèmes mécaniques, où la non-linéarité de contact frottant et des variations sur les paramètres du modèle numérique sont considérés en même temps. Pour y parvenir, nous avons, dans un premier temps, étudié l'intégration de contrôleurs, basés sur la logique floue, pour résoudre un problème de contact frottant. L'idée proposée est de transformer le problème non linéaire en un ensemble de problèmeslinéaires de tailles réduites que l'on peut réanalyser grâce des développements homotopiques et des techniques de projection. Dans un second temps, nous avons étendu la démarche proposée au cas des problèmes de vibrations induites par le frottement comme le crissement
To improve the quality of products and tend to reliable and robust designs, numerical simulations have nowadays taken a key role in many engineering domains. In spite of more complex and realistic numerical models, the correlation between a deterministic simulation and experimentations are not obvious, especially if the observed phenomenon have a fugitive nature. To take into account possible evolutions of behaviour, multiple samplings techniques such as designs of experiments, sensitivity analyses or non-deterministic approaches are currently performed. Nevertheless, these advanced simulations necessarily generate prohibitive computational times, which are not compatible with more and more shorter design steps.The aim of this work is to explore new numerical ways to solve mechanical problems including both the contact nonlinearity, the friction and several variability on model parameters. To achieve this objective, the integration of Fuzzy Logic Controllers has been first studied in the case of static frictional contact problems. The proposed idea is to decompose the non linear problem in a set of reduced linear problems. These last ones can be reanalyzed thanks to homotopy developments and projection techniques as a function of introduced perturbations. Second, the proposed strategy has been extended to the case of friction induced vibrations problems such as squeal
33

Huyghe, Jordan. "Exploitation du corpus de données expérimentales pour la puissance résiduelle des combustibles de réacteurs à eau pressurisée afin d'accroître la maîtrise des biais et incertitudes de calcul avec l'OCS DARWIN2.3." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0359.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La puissance résiduelle est un paramètre dimensionnant à toutes les étapes de l’aval du cycle du combustible, depuis l’arrêt du réacteur jusqu’au stockage final des matières radioactives non valorisables. Une maîtrise du calcul de la puissance résiduelle et de son incertitude est donc nécessaire pour tous les REP du parc nucléaire français : combustibles de type REP-UOx et MOx, sur la plus large plage de refroidissement possible. Le calcul de la puissance résiduelle et de son incertitude est réalisé au CEA avec l’Outil de Calcul Scientifique (OCS) de référence DARWIN2.3. Pour répondre au guide de l’ASN n°28 relatif à la démonstration de sûreté pour la tenue de la première barrière, DARWIN2.3 s’inscrit dans une démarche de vérification, validation & quantification des incertitudes, afin de démontrer la maîtrise du calcul de la puissance résiduelle et de l’incertitude associée. Pour définir cette dernière, la propagation des covariances des données nucléaires sur la puissance résiduelle ou la transposition de la validation expérimentale de l’OCS DARWIN2.3 sont possibles. La démarche de la thèse a consisté à étudier la représentativité des expériences issues du dossier de validation expérimentale de l’OCS DARWIN2.3 ou de la littérature ouverte vis-à-vis de combustibles REP. Cela a permis de définir un domaine de validité pour le calcul de la puissance résiduelle des combustibles REP-UOx et MOx. Le travail de thèse a ensuite consisté à mettre en évidence les lacunes du domaine de validité de DARWIN2.3 pour les combustibles REP-UOx et REP-MOx et à proposer in fine les expériences de mesure de puissance résiduelle qu’il faudrait mener pour combler ces lacunes
The decay heat is a dimensioning parameter at every step of the back-end nuclear cycle, from the reactor shutdown until the final storage of non-recoverable radioactive waste. Accurate control of the calculation of the decay heat and its uncertainty is essential for all the Pressurized Water Reactors (PWRs) in the french reactor infrastructure : PWR-UOx and PWR-MOx fuels, over a wide range of cooling times. The calculation of the decay heat and its uncertainty is performed at CEA with the french reference DARWIN2.3 package. To answer the ASN's guide number 28 relative to the safety demonstration for the first barrier resistance, DARWIN2.3 follows a verification, validation & uncertainty quantification process, in order to prove the control of the decay heat calculation and the associated uncertainty. To define the latter, the propagation of nuclear data covariances to the decay heat or the transposition of the DARWIN2.3's experimental validation are possible. The approach considered for the thesis consisted in studying the representativity of experiments coming from the DARWIN2.3's experimental validation or the literature with PWR fuels. These studies enabled the definition of a 'validity domain' with DARWIN2.3 for the decay heat calculation of PWR-UOx and MOx fuels. Then, the thesis consisted in identifying the gaps in the DARWIN2.3 'validity domain' for the PWR-UOx and PWR-MOx fuels and in identifying the decay heat experiments to be carried out to fill these gaps
34

Jannet, Basile. "Influence de la non-stationnarité du milieu de propagation sur le processus de Retournement Temporel (RT)." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22436/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif la quantification de l’impact d’incertitudes affectant le processus de Retournement Temporel (RT). Ces aléas, de natures diverses, peuvent avoir une forte influence s’ils se produisent entre les deux étapes du RT. Dans cette optique la méthode de Collocation Stochastique (CS) est utilisée. Les très bons résultats en termes d’efficacité et de précision observés lors de précédentes études en Compatibilité ÉlectroMagnétique (CEM) se confirment ici, pour des problématiques de RT. Cependant, lorsque la dimension du problème à traiter augmente (nombre de variables aléatoires important), la méthode de CS atteint ses limites en termes d’efficacité. Une étude a donc été menée sur les méthodes d’Analyse de Sensibilité (AS) qui permettent de déterminer les parts d’influence respectives des entrées d’un modèle. Parmi les différentes techniques quantitatives et qualitatives, la méthode de Morris et un calcul des indices de Sobol totaux ont été retenus. Ces derniers apportent des résultats qualitatifs à moindre frais, car seule une séparation des variables prépondérantes est recherchée. C’est pourquoi une méthodologie combinant des techniques d’AS avec la méthode de CS a été développée. En réduisant le modèle aux seules variables prédominantes grâce à une première étude faisant intervenir les méthodes d’AS, la CS peut ensuite retrouver toute son efficacité avec une grande précision. Ce processus global a été validé face à la méthode de Monte Carlo sur différentes problématiques mettant en jeu le RT soumis à des aléas de natures variées
The aim of this thesis is to measure and quantify the impacts of uncertainties in the Time Reversal (TR) process. These random variations, coming from diverse sources, can have a huge influence if they happen between the TR steps. On this perspective, the Stochastique Collocation (SC) method is used. Very good results in terms of effectiveness and accuracy had been noticed in previous studies in ElectroMagnetic Compatibility (EMC). The conclusions are still excellent here on TR problems. Although, when the problem dimension rises (high number of Random Variables (RV)), the SC method reaches its limits and the efficiency decreases. Therefore a study on Sensitivity Analysis (SA) techniques has been carried out. Indeed, these methods emphasize the respective influences of the random variables of a model. Among the various quantitative or qualitative SA techniques the Morris method and the Sobol total sensivity indices have been adopted. Since only a split of the inputs (point out of the predominant RV) is expected, they bring results at a lesser cost. That is why a novel method is built, combining SA techniques and the SC method. In a first step, the model is reduced with SA techniques. Then, the shortened model in which only the prevailing inputs remain, allows the SC method to show once again its efficiency with a high accuracy. This global process has been validated facing Monte Carlo results on several analytical and numerical TR cases subjet to random variations
35

Safatly, Elias. "Méthode multiéchelle et réduction de modèle pour la propagation d'incertitudes localisées dans les modèles stochastiques." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00798526.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans de nombreux problèmes physiques, un modèle incertain peut être traduit par un ensemble d'équations aux dérivées partielles stochastiques. Nous nous intéressons ici à des problèmes présentant de nombreuses sources d'incertitudes localisées en espace. Dans le cadre des approches fonctionnelles pour la propagation d'incertitudes, ces problèmes présentent deux difficultés majeures. La première est que leurs solutions possèdent un caractère multi-échelle, ce qui nécessite des méthodes de réduction de modèle et des stratégies de calcul adaptées. La deuxième difficulté est associée à la représentation de fonctions de nombreux paramètres pour la prise en compte de nombreuses variabilités. Pour résoudre ces difficultés, nous proposons tout d'abord une méthode de décomposition de domaine multi-échelle qui exploite le caractère localisé des aléas. Un algorithme itératif est proposé, qui requiert une résolution alternée de problèmes globaux et de problèmes locaux, ces derniers étant définis sur des patchs contenant les variabilités localisées. Des méthodes d'approximation de tenseurs sont ensuite utilisées pour la gestion de la grande dimension paramétrique. La séparation multi-échelle améliore le conditionnement des problèmes à résoudre et la convergence des méthodes d'approximation de tenseurs qui est liée aux propriétés spectrales des fonctions à décomposer. Enfin, pour la prise en compte de variabilités géométriques localisées, des méthodes spécifiques basées sur les approches de domaines fictifs sont introduites.
36

Ben, Daoued Amine. "Modélisation de la conjonction pluie-niveau marin et prise en compte des incertitudes et de l’impact du changement climatique : application au site du Havre." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2528.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation des combinaisons de phénomènes d’inondation est une problématique d’actualité pour la communauté scientifique qui s’intéresse en priorité aux sites urbains et nucléaires. En effet, il est fort probable que l’approche déterministe explorant un certain nombre de scénarios possède certaines limites car ces scénarios déterministes assurent un conservatisme souvent excessif. Les approches probabilistes apportent une précision supplémentaire en s’appuyant sur les statistiques et les probabilités pour compléter les approches déterministes. Ces approches probabilistes visent à identifier et à combiner plusieurs scénarios d’aléa possibles pour couvrir plusieurs sources possibles du risque. L’approche probabiliste d’évaluation de l’aléa inondation (Probabilistic Flood Hazard Assessment ou PFHA) proposée dans cette thèse permet de caractériser une (des) quantité(s) d’intérêt (niveau d’eau, volume, durée d’immersion, etc.) à différents points d’un site en se basant sur les distributions des différents phénomènes de l’aléa inondation ainsi que les caractéristiques du site. Les principales étapes du PFHA sont : i) identification des phénomènes possibles (pluies, niveau marin, vagues, etc.), ii) identification et probabilisation des paramètres associés aux phénomènes d’inondation sélectionnés, iii) propagation de ces phénomènes depuis les sources jusqu’aux point d’intérêt sur le site, iv) construction de courbes d’aléa en agrégeant les contributions des phénomènes d’inondation. Les incertitudes sont un point important de la thèse dans la mesure où elles seront prises en compte dans toutes les étapes de l’approche probabiliste. Les travaux de cette thèse reposent sur l’étude de la conjonction de la pluie et du niveau marin et apportent une nouvelle méthode de prise en compte du déphasage temporel entre les phénomènes (coïncidence). Un modèle d’agrégation a été développé afin de combiner les contributions des différents phénomènes d’inondation. La question des incertitudes a été étudiée et une méthode reposant sur la théorie des fonctions de croyance a été utilisée car elle présente des avantages divers par rapport aux autres concepts (modélisation fidèle dans les cas d’ignorance totale et de manque d’informations, possibilité de combiner des informations d’origines et de natures différentes, etc.). La méthodologie proposée est appliquée au site du Havre, en France
The modeling of the combinations of flood hazard phenomena is a current issue for the scientific community which is primarily interested in urban and nuclear sites. Indeed, it is very likely that the deterministic approach exploring several scenarios has certain limits because these deterministic scenarios ensure an often excessive conservatism. Probabilistic approaches provide additional precision by relying on statistics and probabilities to complement deterministic approaches. These probabilistic approaches aim to identify and combine many possible hazard scenarios to cover many possible sources of risk. The Probabilistic Flood Hazard Assessment (PFHA) proposed in this thesis allows to characterize a quantity(ies) of interest (water level, volume, duration of immersion, ect.) at different points of interest of a site based on the distributions of the different phenomena of the flood hazard as well as the characteristics of the site. The main steps of the PFHA are: i) screening of the possible phenomena (rainfall, sea level, waves, ect.), ii) identification and probabilization of the parameters representative of the selected flood phenomena, iii) propagation of these phenomena from their sources to the point of interest on the site, iv) construction of hazard curves by aggregating the contributions of the flood phenomena. Uncertainties are an important topic of the thesis insofar as they will be taken into account in all the steps of the probabilistic approach. The work of this thesis is based on the study of the conjunction of rain and sea level and provide a new method for taking into account the temporal phase shift between the phenomena (coincidence). An aggregation model has been developed to combine the contributions of different flood phenomena. The question of uncertainties has been studied and a method based on the theory of belief functions has been used because it has various advantages (faithful modeling in cases of total ignorance and lack of information, possibility to combine information of different origins and natures, ect.). The proposed methodology is applied on the site of Le Havre in France
37

Prigent, Sylvain. "Approche novatrice pour la conception et l’exploitation d’avions écologiques." Thesis, Toulouse, ISAE, 2015. http://www.theses.fr/2015ESAE0014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail de thèse est de poser, d'analyser et de résoudre le problème multidisciplinaire et multi-objectif de la conception d'avions plus écologiques et plus économiques. Dans ce but, les principaux drivers de l'optimisation des performances d'un avion seront: la géométrie de l'avion, son moteur ainsi que son profil de mission, autrement dit sa trajectoire. Les objectifs à minimiser considérés sont la consommation de carburant, l'impact climatique et le coût d'opération de l'avion. L'étude sera axée sur la stratégie de recherche de compromis entre ces objectifs, afin d'identifier les configurations d'avions optimales selon le critère sélectionné et de proposer une analyse de ces résultats. L'incertitude présente au niveau des modèles utilisés sera prise en compte par des méthodes rigoureusement sélectionnées. Une configuration d'avion hybride est proposée pour atteindre l'objectif de réduction d'impact climatique
The objective of this PhD work is to pose, investigate, and solve the highly multidisciplinary and multiobjective problem of environmentally efficient aircraft design and operation. In this purpose, the main three drivers for optimizing the environmental performance of an aircraft are the airframe, the engine, and the mission profiles. The figures of merit, which will be considered for optimization, are fuel burn, local emissions, global emissions, and climate impact (noise excluded). The study will be focused on finding efficient compromise strategies and identifying the most powerful design architectures and design driver combinations for improvement of environmental performances. The modeling uncertainty will be considered thanks to rigorously selected methods. A hybrid aircraft configuration is proposed to reach the climatic impact reduction objective
38

Sabouri, Pouya. "Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude
This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms
39

Rameh, Hala. "Instrumentation optimale pour le suivi des performances énergétiques d’un procédé industriel." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’efficacité énergétique devient un domaine de recherche incontournable dans la communauté scientifique vu son importance dans la lutte contre les crises énergétiques actuelles et futures. L'analyse des performances énergétiques, pour les procédés industriels, nécessite la connaissance des grandeurs physiques impliquées dans les équilibres de masse et d'énergie. D’où la problématique : comment choisir les points de mesure sur un site industriel de façon à trouver les valeurs de tous les indicateurs énergétiques sans avoir des redondances de mesure (respect des contraintes économiques), et en conservant un niveau de précision des résultats ? La première partie présente la formulation du problème d’instrumentation ayant pour but de garantir une observabilité minimale du système en faveur des variables clés. Ce problème est combinatoire. Une méthode de validation des différentes combinaisons de capteurs a été introduite. Elle est basée sur l’interprétation structurelle de la matrice représentant le procédé. Le verrou de long temps de calcul lors du traitement des procédés de moyenne et grande taille a été levé. Des méthodes séquentielles ont été développées pour trouver un ensemble de schémas de capteurs pouvant être employés, en moins de 1% du temps de calcul initialement requis. La deuxième partie traite le choix du schéma d’instrumentation optimal. Le verrou de propagation des incertitudes dans un problème de taille variable a été levé. Une modélisation du procédé basée sur des paramètres binaires a été proposée pour automatiser les calculs, et évaluer les incertitudes des schémas trouvés. Enfin la méthodologie complète a été appliquée sur un cas industriel et les résultats ont été présentés
Energy efficiency is becoming an essential research area in the scientific community given its importance in the fight against current and future energy crises. The analysis of the energy performances of the industrial processes requires the determination of the quantities involved in the mass and energy balances. Hence: how to choose the placement of the measurement points in an industrial site to find the values of all the energy indicators, without engendering an excess of unnecessary information due to redundancies (reducing measurements costs) and while respecting an accepted level of accuracy of the results ? The first part presents the formulation of the instrumentation problem which aims to guaranteeing a minimal observability of the system in favor of the key variables. This problem is combinatory. A method of validation of the different sensors combinations has been introduced. It is based on the structural interpretation of the matrix representing the process. The issue of long computing times while addressing medium and large processes was tackled. Sequential methods were developed to find a set of different sensor networks to be used satisfying the observability requirements, in less than 1% of the initial required computation time. The second part deals with the choice of the optimal instrumentation scheme. The difficulty of uncertainty propagation in a problem of variable size was addressed. To automate the evaluation of the uncertainty for all the found sensor networks, the proposed method suggested modeling the process based on binary parameters. Finally, the complete methodology is applied to an industrial case and the results were presented
40

Roncen, Thomas. "Réponses vibratoires non-linéaires dans un contexte industriel : essais et simulations sous sollicitations sinusoïdale et aléatoire en présence d'incertitudes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thèse portent sur l'étude expérimentale et numérique de structures mécaniques non-linéaires soumises à des vibrations sinusoïdales et aléatoires. L'étude prend en compte l'existence d'incertitudes au sein du protocole expérimentale et de la modélisation. Les études expérimentales menées au CEA/CESTA montrent que la réponse des structures assemblées à des sollicitations vibratoires est fortement dépendante du niveau d'excitation d'une part, et que la réponse obtenue possède une variabilité, parfois importante. Ces résultats expérimentaux ne peuvent pas être reproduits en simulation avec la méthode de simulation vibratoire linéaire déterministe classique.L'objectif de ces travaux est de proposer et de mettre en place des méthodes numériques pour étudier ces réponses non-linéaires, et de quantifier et propager les incertitudes pertinentes au sein des calculs. Cet objectif passe par l'étude de maquettes d'essai de complexité croissante et sujettes aux mêmes phénomènes vibratoires que les objets d'étude industriels du CEA/CESTA. Les méthodes de simulation vibratoire non-linéaires et les techniques numériques développées dans le monde académique sont adaptées et utilisées dans le contexte industriel du CEA/CESTA.Le premier objet d'étude est une poutre métallique bi-encastrée, dont la non-linéarité est d'origine géométrique. Le modèle associé à cette poutre est un oscillateur de Duffing à un degré de liberté très détaillé dans la littérature scientifique, et qui permet de valider les développements numériques effectués, sur les aspects de l'excitation aléatoire et de la propagation d'incertitudes. Dans un premier temps, les méthodes de tir et d'équilibrage harmonique sont étendues au cas de l'excitation aléatoire et validées sur cette structure académique par comparaison à l'expérience. Dans un second temps, une méthode de propagation d'incertitude non-intrusive est implémentée pour prendre en compte les incertitudes de modélisation identifiées.Le second objet d'étude est une maquette comportant un plot élastomère reliant une masselotte à un bâti. Le comportement non-linéaire de l'élastomère est au c\oe ur de ces travaux de thèse. De nombreux essais vibratoires sont réalisés dans un premier temps pour identifier un modèle non-linéaire de l'élastomère juste suffisant. Dans un second temps, le modèle développé est validé par comparaison aux essais en utilisant et adaptant les méthodes étendues lors de l'étude de la poutre bi-encastrée.Enfin, une maquette d'étude se rapprochant d'un cas d'application industriel est étudiée : la maquette Harmonie-Gamma. Elle compte des interfaces frottantes et des liaisons élastomères. Les essais vibratoires réalisés permettent d'identifier le comportement dynamique linéaire et non-linéaire du système et d'étudier l'évolution de la réponse en fonction du niveau d'excitation. Un modèle numérique est réalisé par éléments finis puis réduit par une méthode de sous-structuration. Les relations non-linéaires sont introduites au niveau des liaisons frottantes et élastomères. La réponse vibratoire de la structure est simulée par la méthode d'équilibrage harmonique couplée à un algorithme de continuation. Les comparaisons essais / calculs sont menées pour les excitations de type sinus balayé et aléatoire, et permettent d'analyser l'apport de chaque non-linéarité dans la réponse de la structure
This PhD work focuses on the experimental and numerical study of nonlinear structures subjected to both harmonic and random vibrations, in the presence of modeling and experimental uncertainties. Experimental studies undertaken at the CEA / CESTA show a strong dependence of the jointed structures towards the excitation level, as well as a variability in the response for a given excitation level. These experimental results cannot be simulated using the classical determinist linear vibration simulation method.The objective of this work is to propose and set up numerical methods to study these nonlinear responses, while quantifying and propagating the relevant uncertainties in the simulations. This objective involves the study of structural assemblies of increasing complexity and subjected to the same vibratory phenomena as CEA / CESTA industrial structures. Advanced nonlinear numerical methods developed in academia are applied in the CEA / CESTA industrial context.The first test structure is a clamped-clamped steel beam that has a geometrical nonlinearity. The beam is modeled by a Duffing oscillator which is a widely studied model in the field of nonlinear dynamics. This allows for a validation of the numerical developments proposed in this work, first on the issue of random vibrations, and second on the issue of the propagation of uncertainties. The simulations are based on two techniques of reference (shooting method and harmonic balance method). Firstly, the simulation results are validated by comparison with the experimental results for random vibrations. Secondly, the harmonic balance method is used in adequation with a non-intrusive polynomial chaos in order to take into accounts the modeling uncertainties.The second test structure is a mass linked to a solid casing via a vibration-absorbing elastomeric material of biconical shape surrounded by a cage of aluminum. The nonlinear behavior of the elastomer is at the heart of this work. Various vibration tests were performed on this structure in order to identify the simplest nonlinear model possible to answer our queries. The identified model is validated through comparisons between the simulation results and the experimental results for both sine-swept and random vibrations.The central assembly of this work is an industrial assembly with friction joints and vibration-absorbing elastomeric joints, named Harmonie-Gamma. The vibration tests performed exhibit resonance modes as well as a strong dependency of the response with the excitation level. A numerical finite element model is developed and reduced with a substructuration technique. The resulting nonlinear reduced model is simulated using an harmonic balance method with a continuation method. The simulated responses are compared with the experiments and allow for an analysis of coupled nonlinearities in the CEA / CESTA industrial context
41

Merheb, Rania. "Fiabilité des outils de prévision du comportement des systèmes thermiques complexes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00969036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception des bâtiments à faible consommation d'énergie est devenue un enjeu très important dans le but de réduire au maximum la consommation d'énergie et les émissions de gaz à effet de serre associées. Pour y arriver, il est indispensable de connaître les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique des bâtiments d'un part, et de les caractériser et les évaluer d'autre part.Pour répondre aux exigences courantes en termes de fiabilité des prévisions du comportement thermique des bâtiments, nous avons essayé dans le cadre de cette thèse de quantifier les incertitudes liés à des paramètres influents, de proposer une technique de diagnostic de l'enveloppe, propager les incertitudes via une méthode ensembliste sur un modèle simplifié et puis proposer une démarche permettant d'identifier les paramètres de modélisation les plus influents et d'évaluer leur effet sur les performances énergétiques avec le moindre coût en termes de simulations.
42

Bontemps, Stéphanie. "Validation expérimentale de modèles : application aux bâtiments basse consommation." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0337/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec la généralisation de la construction des bâtiments basse consommation, passifs et à énergie positive, mais aussi la rénovation du parc existant, il est indispensable d’avoir recours à la simulation pour évaluer, entre autres, les performances énergétique et environnementale atteintes par ces nouveaux bâtiments. Les attentes en termes de garantie de performance énergétique étant de plus en plus importantes, il est primordial de s’assurer de la fiabilité des outils de simulation utilisés. En effet, les codes de simulation doivent être capables de représenter le comportement de ces nouveaux types de bâtiments de la façon la plus juste et fidèle possible. De plus, les incertitudes liées aussi bien aux paramètres de conception qu’aux différentes sollicitations ainsi qu’aux usages des bâtiments doivent être prises en compte pour pouvoir garantir la performance du bâtiment sur sa durée de vie.Cette thèse s’est intéressée à la validation expérimentale de modèles appliquée à un bâtiment de type cellule test. Cette méthodologie de validation se déroule en plusieurs étapes au cours desquelles on évalue la qualité du modèle en termes de justesse et de fidélité. Plusieurs cas d’études ont été menés sur lesquels nous avons pu identifier les paramètres les plus influents sur la sortie du modèle, examiner l’influence du pas de temps sur le processus de validation expérimentale, analyser l’influence de l’initialisation et confirmer l’aptitude de la méthodologie à tester le modèle
Construction of low, passive and positive energy buildings is generalizing and existing buildings are being renovated. For this reason, it is essential to use simulation in order to estimate, among other things, energy and environmental performances reached by these new buildings. Expectations regarding guarantee of energy performance being more and more important, it is crucial to ensure the reliability of simulation tools being used. Indeed, simulation codes should reflect the behavior of these new kinds of buildings in the most consistent and accurate manner. Moreover, the uncertainty related to design parameters, as well as solicitations and building uses have to be taken into account in order to guarantee building energy performance during its lifetime.This thesis investigates the empirical validation of models applied to a test cell building. This validation process is divided into several steps, during which the quality of the model is evaluated as far as consistency and accuracy are concerned. Several study cases were carried out, from which we were able to identify the most influential parameters on model output, inspect the influence of time step on the empirical validation process, analyze the influence of initialization and confirm methodology’s ability to test the model
43

Chakchouk, Mohamed. "Conceptiοn d'un détecteur de système mécatronique mobile intelligent pour observer des molécules en phase gazeuse en ΙR." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR06.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail anticipe que, dans un monde technologique numérique en constante expansion, les percées technologiques dans l'analyse des données collectées par des dispositifs spectroscopiques permettront l'identification presque instantanée d'espèces connues observées in-situ dans un environnement spécifique, laissant l'analyse approfondie nécessaire aux espèces non observées. La méthode dérivée de la technologie RBDO (Reliability Based Design Optimisation) sera utilisé pour implémenter une procédure d’intelligence artificielle afin d'identifier les espèces observées à partir d'un capteur IR mobile. Afin d'analyser avec succès les données obtenues, il est nécessaire d'assigner de manière appropriée les espèces moléculaires à partir des données IR observées en utilisant les modèles théoriques appropriés. Ce travail se concentre sur l'observation à partir d'appareils mobiles équipés de capteurs, d'antennes et d'électronique appropriés pour capturer et envoyer des données brutes ou analysées à partir d'un environnement spectroscopique IR intéressant. Il est donc intéressant voir indispensable de se concentrer sur les outils théoriques basés sur la symétrie pour l'analyse spectroscopique des molécules, ce qui permet d'identifier les fenêtres IR à choisir pour l'observation dans la conception de l'appareil. Ensuite, en ajustant les paramètres théoriques spectroscopiques aux fréquences observées, le spectre d'une espèce moléculaire peut être reconstruit. Une déconvolution des spectres observés est nécessaire avant l'analyse en termes d'intensité, de largeur et de centre de raie caractérisant une forme de raie. Une stratégie adéquate est donc nécessaire lors de la conception pour inclure l'analyse des données pendant la phase d'observation, qui peut bénéficier d'un algorithme d'intelligence artificielle pour tenir compte des différences dans la signature spectrale IR à cet égard, le pouvoir analytique des données de l'instrument peut être amélioré en utilisant la méthodologie d'optimisation de la conception basée sur la fiabilité (RBDO). Basée sur le comportement multiphysique de la propagation des incertitudes dans l'arbre hiérarchique du système, la RBDO utilise une modélisation probabiliste pour analyser l'écart par rapport à la sortie souhaitée comme paramètres de rétroaction pour optimiser la conception au départ. Le but de cette thèse est de traiter les paramètres de fenêtres d'observation IR, afin de traiter les questions de fiabilité au-delà de la conception mécatronique, pour inclure l'identification des espèces par l'analyse des données collectées
This work anticipates that, in an ever-expanding digital technology world, technological breakthroughs in the analysis of data collected by spectroscopic devices will allow the almost instantaneous identification of known species observed in-situ in a specific environment, leaving the necessary in-depth analysis of unobserved species. The method derived from RBDO (Reliability Based Design Optimization) technology will be used to implement an artificial intelligence procedure to identify observed species from a mobile IR sensor. To successfully analyze the obtained data, it is necessary to appropriately assign molecular species from the observed IR data using appropriate theoretical models. This work focuses on the observation from mobile devices equipped with appropriate sensors, antennas, and electronics to capture and send raw or analyzed data from an interesting IR spectroscopic environment. It is therefore interesting if not essential to focus on symmetry-based theoretical tools for the spectroscopic analysis of molecules, which allows to identify the IR windows to be chosen for observation in the design of the device. Then, by fitting the theoretical spectroscopic parameters to the observed frequencies, the spectrum of a molecular species can be reconstructed. A deconvolution of the observed spectra is necessary before the analysis in terms of intensity, width and line center characterizing a line shape. Therefore, an adequate strategy is needed in the design to include data analysis during the observation phase, which can benefit from an artificial intelligence algorithm to account for differences in the IR spectral signature. In this regard, the analytical power of the instrument data can be improved by using the reliability-based design optimization (RBDO) methodology. Based on the multi-physics behavior of uncertainty propagation in the hierarchical system tree, RBDO uses probabilistic modeling to analyze the deviation from the desired output as feedback parameters to optimize the design in the first place. The goal of this thesis is to address IR observation window parameters to address reliability issues beyond mechatronic design to include species identification through analysis of collected data
44

Aleksovska, Ivana. "Améliorer les prévisions à court et moyen termes des modèles agronomiques en prenant mieux en compte l'incertitude des prévisions météorologiques." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons de montrer l'intérêt des prévisions d'ensemble météorologiques dans l'anticipation par les agriculteurs d'application de produits phytosanitaires. En nous appuyant sur les modèles EVA relatif au ver de la grappe en vigne et Septo-LIS à la septoriose du blé, nous illustrons le potentiel des prévisions d'ensemble en les comparants aux données fréquentielles. Nous construisons des ensembles de prévision cohérents, dits "sans couture", bénéficiant de trois systèmes de prévision d'ensemble couvrant différentes échelles spatio-temporelles que nous évaluons d'un point de vue météorologique et agronomique. Après calibrage des prévisions par une approche paramétrique, un raccordement sans couture est effectué au moyen d'une mesure de distance entre prévisions et d'un algorithme d'affectation. Nous montrons que l'affectation dite hongroise permet d'obtenir des prévisions cohérentes de température satisfaisant les critères de continuité temporelle et d'unicité des membres avec une meilleure performance météorologique aux courtes échéances. Les prévisions du modèle EVA sont significativement améliorées par le calibrage des prévisions de température. Le gain des prévisions sans couture n'est pas significatif sur cette application
This PhD-thesis demonstrates the potential of ensemble weather forecasts in the decision support tools developed to assist farmers in anticipating the application of phytosanitary treatments. We consider the models EVA that simulates the dynamics of grape berry moth and Septo-LIS that forecasts the development of wheat septoria. We illustrate the potential of using ensemble weather forecasts in agronomic models compared to frequency data. We then propose strategies to design seamless ensemble weather forecasts that combine information from three ensembles with different spatio-temporal scales. Finally these seamless forecasts are evaluated from a meteorological and agronomic point of view. The design of seamless ensemble predictions is considered as a concatenation problem. Ensemble predictions are first calibrated using a parametric approach, then the concatenation of forecasts is handled with a distance measure and an assignment algorithm. We show that the so-called Hungarian method is able to provide ensembles of independent and temporally consistent forecasts. It is shown that the EVA model is significantly improved by the calibration of temperature forecasts, while the benefit of seamless forecasts is not significant
45

Amarger, Stéphane. "Propagation des contraintes avec des probabilités conditionnelles imprécises." Toulouse 3, 1993. http://www.theses.fr/1993TOU30130.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Hoang, Tuan Nha. "Incertitude des données biomécaniques : modélisation et propagation dans les modèles de diagnostic des pathologies du système musculosquelettique." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2171/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les pathologies du système musculosquelettique concernant les déformations / anomalies osseuses et musculaires (e.g. paralysie cérébrale) ont un fort impact sur la qualité de vie des personnes concernées. Les objectifs de la thèse sont d’approfondir les études précédentes en intégrant la modélisation de l’incertitude des données biomécaniques et biomédicales dans les modèles de diagnostic prédictif des pathologies du système musculosquelettique. L’intervalle a été choisi pour représenter l’incertitude des données biomécaniques. Ce formalisme est simple et peu coûteux sur le plan du calcul. Les données (physiologiques, morphologiques, mécaniques et analyse du mouvement) ont été recueillies à partir de la littérature en utilisant les moteurs de recherche des articles scientifiques fiables pour établir un espace d’incertitude. La nouvelle méthode de classement (nommée US-ECM) proposée est une méthode de classement semi-supervisé qui utilise la partition crédale pour représenter les connaissances partielles sur les clusters. L’utilisation de la fonction de croyance pour représenter ces éléments de connaissance permet de les combiner d’une manière souple et robuste. De plus, l’extension de cette méthode avec un espace d’incertitude multidimensionnelle a montré la meilleure performance par rapport à la version originale. L’analyse des avis d’expert permettra d’inclure ou d’exclure les sources de données selon leurs niveaux de fiabilité. Ensuite, le modèle de regroupement (US-ECM) développé sera appliqué sur une nouvelle base de données pour évaluer l’impact de la fiabilité des données sur la performance de diagnostic
The aim of the project is to investigate the modeling of the reliability/incertitude/imprecision of biomedical and biomechanics data (medical images, kinematics/kinetics/EMG data, etc.) and its propagation in the predictive diagnosls models of the disorders of musculoskeletal systems. These diagnosis models will be based on multimodal and multidimensional patient data (3D medical imaging, mechanical data,dinical data,etc.). The literature-based data have been collected to estabish an uncertainty space, which represents fused data from multiple sources, of morphological, mechanical, and movement analysis properties of the musculoskeletal system from multiple sources (i.e. research papers from Science Direct and Pubmed). After that,a new clustering method (US-ECM) is proposed for integrating fused data from multiple sources ln form of a multidimensional uncertainty space (US). Reliability of biomechanical data was evaluated by a fusion approach expert opinion. Reliability criteria of a data source (ie scientific paper published) focus on the technique used the acquisition protocol and measurement and the number of data. A system of questionnaires was developed to co!lect expert opinion. Then, the theory of beliet functions has been applied to merge these opinion to establish a confidence level each data source
47

Mostarshedi, Shermila. "Réflexion des champs électromagnétiques en milieu urbain et incertitude associée : analyse au moyen de fonctions de Green." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00366853.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse a pour objet une méthode de détermination du champ électromagnétique au voisinage des bâtiments urbains, ainsi que l'évaluation de l'incertitude associée, liée aux paramètres variables des façades. Cette étude met en oeuvre une méthode théorique, précise et rapide de caractérisation du champ électromagnétique réfléchi par des objets diffractants diélectriques de taille supérieure à quelques longueurs d'onde. La réflexion comprend la rétrodiffusion, la réflexion spéculaire et la réflexion non-spéculaire. La méthode se trouve dans la catégorie des techniques basées sur les courants équivalents et calcule le rayonnement de ces courants à l'aide des fonctions de Green associées à l'interface entre deux diélectriques semi-infinis. Les fonctions de Green tiennent compte de la présence de l'objet diffractant correctement dans toutes les directions, c'est pourquoi la méthode proposée ici présente une précision plus importante que les méthodes du même type, particulièrement dans les directions nonspéculaires. La méthode peut être appliquée dans différents domaines : radar, télédétection, géophysique, et plus particulièrement dans l'environnement urbain dans le cadre de cette thèse. Un modèle simple de bâtiment urbain, composé des murs (en béton) et des fenêtres (en verre), est adopté dans les exemples présentés au cours du manuscrit, avec l'avantage de tenir compte simplement du type et de l'épaisseur des fenêtres. La méthode des fonctions de Green étant rapide et peu exigeante en temps de calcul et en ressources informatiques, elle permet d'obtenir une caractérisation rapide du champ, et en conséquence de déterminer l'influence de plusieurs paramètres intervenant dans le calcul du champ au voisinage d'un bâtiment via des études paramétriques/statistiques. L'influence de la variation de plusieurs paramètres est approfondie par des études statistiques. Parmi ces paramètres citons : la permittivité du matériau principal de la façade, la distribution des fenêtres, les dimensions (la largeur et la hauteur) des fenêtres et le type du vitrage (l'épaisseur des fenêtres). La connaissance des paramètres influents et la quantification de leur influence sur le champ réfléchi permettront aux simulateurs de la propagation d'onde de faire des simplifications qui accélèrent le temps de calcul tout en maintenant une bonne précision des résultats. Ce travail pourra être utilisé afin d'obtenir des modèles de propagation plus précis
48

Leroy, Olivia. "Estimation d'incertitudes pour la propagation acoustique en milieu extérieur." Le Mans, 2010. http://cyberdoc.univ-lemans.fr/theses/2010/2010LEMA1027.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les phénomènes de propagation acoustique en milieu extérieur sont soumis à de fortes incertitudes et à une variabilité spatio-temporelle non-négligeable. Effets de sol, phénomènes micrométéorologiques, variabilité de la source sont autant d'éléments qui agissent de façon combinée et qui rendent ainsi les phénomènes complexes. Les niveaux sonores sont alors difficilement mesurables et/ou estimés avec la précision requise d'un point de vue règlementaire et normatif. Une méthode statistique a donc été mise en place afin de pouvoir estimer ces incertitudes pour tous types de situations rencontrées : la méthode de calibration sous incertitude. Cette méthode intègre aussi bien des données modélisées que des données expérimentales ; des bases de données représentatives de sites différents plus ou moins complexes permettent d'appliquer le processus développé et de l'améliorer pas à pas. Cette méthode rend compte de la spécification du système (réflexions sur la constitution de jeux de données), la définition des observables, la calibration du système (l'écriture de la fonction coût et l'estimation des paramètres d'intérêt), la validation du système et la prévision. La méthode désormais aboutie peut être appliquée à tout type de cas d'étude dans la limite des possibilités des modèles de prévision et des données expérimentales à disposition en regard de la complexité des phénomènes ; ces limites sont également mises en évidence
Outdoor sound propagation phenomena are subject to substantial uncertainties and non-negligible variability in space and time. The combination of ground effects, micrometeorological phenomena, variability of the source gives rise to complex phenomena. It is so difficult to measure and/or assess sound pressure levels with the required accuracy from a regulatory and normative point of view. A statistical method has been defined in order to assess these uncertainties for any configurations : the Calibration Under Uncertainty (CUU) methodology. This method integrates both modeled data and experimental data ; available databases which are representative of more or less complex sites allow to apply the statistical process and to improve it step by step. System specification (datasets constitution), observables definition, system calibration (cost function formulation and parameters estimation), system validation and prediction are the main steps of the statistical process. This finalized process can be applied to any case study within the limitations of available prediction models and experimental data regarding the complexity of phenomena. These limitations are also highlighted
49

Darishchev, Alexander. "Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de
Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology
50

Ehrlacher, Virginie. "Quelques modèles mathématiques en chimie quantique et propagation d'incertitudes." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1073/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail comporte deux volets. Le premier concerne l'étude de défauts locaux dans des matériaux cristallins. Le chapitre 1 donne un bref panorama des principaux modèles utilisés en chimie quantique pour le calcul de structures électroniques. Dans le chapitre 2, nous présentons un modèle variationnel exact qui permet de décrire les défauts locaux d'un cristal périodique dans le cadre de la théorie de Thomas-Fermi-von Weiszäcker. Celui-ci est justifié à l'aide d'arguments de limite thermodynamique. On montre en particulier que les défauts modélisés par cette théorie ne peuvent pas être chargés électriquement. Les chapitres 3 et 4 de cette thèse traitent du phénomène de pollution spectrale. En effet, lorsqu'un opérateur est discrétisé, il peut apparaître des valeurs propres parasites, qui n'appartiennent pas au spectre de l'opérateur initial. Dans le chapitre 3, nous montrons que des méthodes d'approximation de Galerkin via une discrétisation en éléments finis pour approcher le spectre d'opérateurs de Schrödinger périodiques perturbés sont sujettes au phénomène de pollution spectrale. Par ailleurs, les vecteurs propres associés aux valeurs propres parasites peuvent être interprétés comme des états de surface. Nous prouvons qu'il est possible d'éviter ce problème en utilisant des espaces d'éléments finis augmentés, construits à partir des fonctions de Wannier associées à l'opérateur de Schrödinger périodique non perturbé. On montre également que la méthode dite de supercellule, qui consiste à imposer des conditions limites périodiques sur un domaine de simulation contenant le défaut, ne produit pas de pollution spectrale. Dans le chapitre 4, nous établissons des estimations d'erreur a priori pour la méthode de supercellule. En particulier, nous montrons que l'erreur effectuée décroît exponentiellement vite en fonction de la taille de la supercellule considérée. Un deuxième volet concerne l'étude d'algorithmes gloutons pour résoudre des problèmes de propagation d'incertitudes en grande dimension. Le chapitre 5 de cette thèse présente une introduction aux méthodes numériques classiques utilisées dans le domaine de la propagation d'incertitudes, ainsi qu'aux algorithmes gloutons. Dans le chapitre 6, nous prouvons que ces algorithmes peuvent être appliqués à la minimisation de fonctionnelles d'énergie fortement convexes non linéaires et que leur vitesse de convergence est exponentielle en dimension finie. Nous illustrons ces résultats par la résolution de problèmes de l'obstacle avec incertitudes via une formulation pénalisée
The contributions of this thesis work are two fold. The first part deals with the study of local defects in crystalline materials. Chapter 1 gives a brief overview of the main models used in quantum chemistry for electronic structure calculations. In Chapter 2, an exact variational model for the description of local defects in a periodic crystal in the framework of the Thomas-Fermi-von Weisz"acker theory is presented. It is justified by means of thermodynamic limit arguments. In particular, it is proved that the defects modeled within this theory are necessarily neutrally charged. Chapters 3 and 4 are concerned with the so-called spectral pollution phenomenon. Indeed, when an operator is discretized, spurious eigenvalues which do not belong to the spectrum of the initial operator may appear. In Chapter 3, we prove that standard Galerkin methods with finite elements discretization for the approximation of perturbed periodic Schrödinger operators are prone to spectral pollution. Besides, the eigenvectors associated with spurious eigenvalues can be characterized as surface states. It is possible to circumvent this problem by using augmented finite element spaces, constructed with the Wannier functions of the periodic unperturbed Schr"odinger operator. We also prove that the supercell method, which consists in imposing periodic boundary conditions on a large simulation domain containing the defect, does not produce spectral pollution. In Chapter 4, we give a priori error estimates for the supercell method. It is proved in particular that the rate of convergence of the method scales exponentiall with respect to the size of the supercell. The second part of this thesis is devoted to the study of greedy algorithms for the resolution of high-dimensional uncertainty quantification problems. Chapter 5 presents the most classical numerical methods used in the field of uncertainty quantification and an introduction to greedy algorithms. In Chapter 6, we prove that these algorithms can be applied to the minimization of strongly convex nonlinear energy functionals and that their convergence rate is exponential in the finite-dimensional case. We illustrate these results on obstacle problems with uncertainty via penalized formulations

To the bibliography