Dissertations / Theses on the topic 'Propagation uncertainties'

To see the other types of publications on this topic, follow the link: Propagation uncertainties.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 27 dissertations / theses for your research on the topic 'Propagation uncertainties.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Stanton, Richard. "Robust acoustic beamforming in the presence of channel propagation uncertainties." Thesis, Imperial College London, 2016. http://hdl.handle.net/10044/1/43535.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Beamforming is a popular multichannel signal processing technique used in conjunction with microphone arrays to spatially filter a sound field. Conventional optimal beamformers assume that the propagation channels between each source and microphone pair are a deterministic function of the source and microphone geometry. However in real acoustic environments, there are several mechanisms that give rise to unpredictable variations in the phase and amplitudes of the propagation channels. In the presence of these uncertainties the performance of beamformers degrade. Robust beamformers are designed to reduce this performance degradation. However, robust beamformers rely on tuning parameters that are not closely related to the array geometry. By modeling the uncertainty in the acoustic channels explicitly we can derive more accurate expressions for the source-microphone channel variability. As such we are able to derive beamformers that are well suited to the application of acoustics in realistic environments. Through experiments we validate the acoustic channel models and through simulations we show the performance gains of the associated robust beamformer. Furthermore, by modeling the speech short time Fourier transform coefficients we are able to design a beamformer framework in the power domain. By utilising spectral subtraction we are able to see performance benefits over ideal conventional beamformers. Including the channel uncertainties models into the weights design improves robustness.
2

Bertin, Michaël. "Propagation des incertitudes dans un modèle réduit de propagation des infrasons." Thesis, Cachan, Ecole normale supérieure, 2014. http://www.theses.fr/2014DENS0020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La perturbation d’un système peut donner lieu à de la propagation d’onde. Une façon classique d’appréhender ce phénomène est de rechercher les modes propres de vibration du milieu. Mathématiquement, trouver ces modes consiste à rechercher les valeurs et fonctions propres de l’opérateur de propagation. Cependant, d’un point de vue numérique, l’opération peut s’avérer coûteuse car les matrices peuvent avoir de très grandes tailles. En outre, dans la plupart des applications, des incertitudes sont inévitablement associées à notre modèle. La question se pose alors de savoir s’il faut attribuer d’importantes ressources de calcul pour une simulation dont la précision du résultat n’est pas assurée. Nous proposons dans cette thèse une démarche qui permet à la fois de mieux comprendre l’influence des incertitudes sur la propagation et de réduire considérablement les coûts de calcul pour la propagation des infrasons dans l’atmosphère. L’idée principale est que tous les modes n’ont pas la même importance et souvent, seule une poignée d’entre eux suffit à décrire le phénomène sans perte notable de précision. Ces modes s’avèrent être ceux qui sont les plus sensibles aux perturbations atmosphériques. Plus précisément, l’analyse de sensibilité permet d’identifier les structures de l’atmosphère les plus influentes, les groupes de modes qui leur sont associés et les parties du signal infrasonore qui leur correspondent. Ces groupes de modes peuvent être spécifiquement ciblés dans un calcul de spectre au moyen de techniques de projection sur des sous-espace de Krylov, ce qui implique un gain important en coût de calcul. Cette méthode de réduction de modèle peut être appliquée dans un cadre statistique et l’estimation de l’espérance et de la variance du résultat s’effectue là aussi sans perte notable de précision et avec un coût réduit
The perturbation of a system can give rise to wave propagation. A classical approach to understand this phenomenon is to look for natural modes of vibration of the medium. Mathematically, finding these modes requires to seek the eigenvalues and eigenfunctions of the propagation operator. However, from a numerical point of view, the operation can be costly because the matrices can be of very large size. Furthermore, in most applications, uncertainties are inevitably associated with our model. The question then arises as to whether we should allocate significant computational resources for simulation while the accuracy of the result is not guaranteed. We propose in this thesis an approach that allows both a better understanding of the influence of uncertainties on the propagation and a significant decrease of computational costs for infrasound propagation in the atmosphere. The main idea is that all modes do not have the same importance and only a few of them is often sufficient to account for the phenomenon without a significant loss of accuracy. These modes appear to be those which are most sensitive to atmospheric disturbances. Specifically, a sensitivity analysis is used to identify the most influential structures of the atmosphere, the associated groups of modes and their associated parts of the infrasound signal. These groups of modes can be specifically targeted in a spectrum calculation with the projection of the operator onto Krylov subspaces, that allows a significant decrease of the computational cost. This method of model reduction can be applied in a statistical framework as well and estimations of the expectation and the variance of the results are carried out without a significant loss of accuracy and still with a low cost
3

Moreno, de Castro María [Verfasser]. "Propagation of uncertainties in mesocosm experiments on ocean acidification / María Moreno de Castro." Kiel : Universitätsbibliothek Kiel, 2016. http://d-nb.info/1102933058/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Davis, Daniel E. "A Technique for Evaluating the Uncertainties in Path Loss Predictions Caused by Sparsely Sampled Terrain Data." Thesis, Virginia Tech, 2013. http://hdl.handle.net/10919/23314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Radio propagation models provide an estimate of the power loss in a communication link caused by the surface of the ground, atmospheric refraction, foliage, and other environmental factors.  Many of the models rely on digital topographic databases to provide information about the terrain, and generally the databases are sparsely sampled relative to the electromagnetic wavelengths used for communication systems.  This work primarily develops a technique to evaluate the effects of that sparsity on the uncertainty of propagation models.

That is accomplished by accurately solving the electromagnetic fields over many randomly  rough surfaces which pass through the sparse topographic data points, many possible communication links, all of which fit the underlying data, are represented.  The power variation
caused by the different surface realizations is that due to the sparse sampling. Additionally, to verify that this solution technique is a good model, experimental propagation measurements were taken, and compared to the computations.


Master of Science
5

Lu, Yen-Sen [Verfasser]. "Propagation of land surface model uncertainties in simulated terrestrial system states / Yen-Sen Lu." Bonn : Universitäts- und Landesbibliothek Bonn, 2018. http://d-nb.info/1161462252/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Geraci, Gianluca. "Schemes and Strategies to Propagate and Analyze Uncertainties in Computational Fluid Dynamics Applications." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00954413.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this manuscript, three main contributions are illustrated concerning the propagation and the analysis of uncertainty for computational fluid dynamics (CFD) applications. First, two novel numerical schemes are proposed : one based on a collocation approach, and the other one based on a finite volume like representation in the stochastic space. In both the approaches, the key element is the introduction of anon-linear multiresolution representation in the stochastic space. The aim is twofold : reducing the dimensionality of the discrete solution and applying a time-dependent refinement/coarsening procedure in the combined physical/stochastic space. Finally, an innovative strategy, based on variance-based analysis, is proposed for handling problems with a moderate large number of uncertainties in the context of the robust design optimization. Aiming to make more robust this novel optimization strategies, the common ANOVA-like approach is also extended to high-order central moments (up to fourth order). The new approach is more robust, with respect to the original variance-based one, since the analysis relies on new sensitivity indexes associated to a more complete statistic description.
7

Saussus, Denis. "Probabilistic distributions of ultimate axial pile resistance derived from propagation of epistemic and aleatory material and model uncertainties." Diss., Georgia Institute of Technology, 2001. http://hdl.handle.net/1853/32819.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Chiang, Keng-Yen. "Thermal hydraulic limits analysis for the MIT Research Reactor low enrichment uranium core conversion using statistical propagation of parametric uncertainties." Thesis, Massachusetts Institute of Technology, 2012. http://hdl.handle.net/1721.1/77069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Nuclear Science and Engineering, 2012.
Cataloged from PDF version of thesis.
Includes bibliographical references.
The MIT Research Reactor (MITR) is evaluating the conversion from highly enriched uranium (HEU) to low enrichment uranium (LEU) fuel. In addition to the fuel element re-design from 15 to 18 plates per element, a reactor power upgraded from 6 MW to 7 MW is proposed in order to maintain the same reactor performance of the HEU core. Previous approaches in analyzing the impact of engineering uncertainties on thermal hydraulic limits via the use of engineering hot channel factors (EHCFs) were unable to explicitly quantify the uncertainty and confidence level in reactor parameters. The objective of this study is to develop a methodology for MITR thermal hydraulic limits analysis by statistically combining engineering uncertainties in order to eliminate unnecessary conservatism inherent in traditional analyses. This methodology was employed to analyze the Limiting Safety System Settings (LSSS) for the MITR LEU core, based on the criterion of onset of nucleate boiling (ONB). Key parameters, such as coolant channel tolerances and heat transfer coefficients, were considered as normal distributions using Oracle Crystal Ball for the LSSS evaluation. The LSSS power is determined with 99.7% confidence level. The LSSS power calculated using this new methodology is 9.1 MW, based on core outlet coolant temperature of 60 'C, and primary coolant flow rate of 1800 gpm, compared to 8.3 MW obtained from the analytical method using the EHCFs with same operating conditions. The same methodology was also used to calculate the safety limit (SL) to ensure that adequate safety margin exists between LSSS and SL. The criterion used to calculate SL is the onset of flow instability. The calculated SL is 10.6 MW, which is 1.5 MW higher than LSSS, permitting sufficient margin between LSSS and SL.
by Keng-Yen Chiang.
S.M.
9

Leissing, Thomas. "Nonlinear acoustic wave propagation in complex media : application to propagation over urban environments." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00584398.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette recherche, un modèle de propagation d'ondes de choc sur grandes distances sur un environnement urbain est construit et validé. L'approche consiste à utiliser l'Equation Parabolique Nonlinéaire (NPE) comme base. Ce modèle est ensuite étendu afin de prendre en compte d'autres effets relatifs à la propagation du son en milieu extérieur (surfaces non planes, couches poreuses, etc.). La NPE est résolue en utilisant la méthode des différences finies et donne des résultats en accord avec d'autres méthodes numériques. Ce modèle déterministe est ensuite utilisé comme base pour la construction d'un modèle stochastique de propagation sur environnements urbains. La Théorie de l'Information et le Principe du Maximum d'Entropie permettent la construction d'un modèle probabiliste d'incertitudes intégrant la variabilité du système dans la NPE. Des résultats de référence sont obtenus grâce à une méthode exacte et permettent ainsi de valider les développements théoriques et l'approche utilisée
10

Dumont, Nicolas. "Méthodes numériques et modèle réduit de chimie tabulée pour la propagation d'incertitudes de cinétique chimique." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation numérique joue aujourd'hui un rôle majeur dans le domaine de la combustion, que ce soit au niveau de la recherche en offrant la possibilité de mieux comprendre les phénomènes ayant lieu au sein des écoulements réactifs ou au niveau du développement de nouveaux systèmes industriels par une diminution des coûts liés à la conception de ces systèmes. A l'heure actuelle, la simulation aux grandes échelles est l'outil le mieux adapté à la simulation numérique d'écoulements réactifs turbulents. Cette simulation aux grandes échelles d'écoulements réactifs n'est en pratique possible que grâce à une modélisation des différents phénomènes:- la turbulence est modélisée pour les plus petites structures permettant de n'avoir à résoudre que les plus grandes structures de l'écoulement et ainsi réduire le coût de calcul- la chimie des différentes espèces réactives est modélisée à l'aide de méthodes de réduction permettant de considérablement réduire le coût de calculLa maturité de la simulation aux grandes échelles d'écoulements réactifs en fait aujourd'hui un outil fiable, prédictif et prometteur. Il fait désormais sens de s'intéresser à l'impact des paramètres impliqués dans les différents modèles sur le résultat de la simulation. Cette étude de l'impact des paramètres de modélisation peut être vue sous l'angle de la propagation d'incertitudes, et peut donner des informations intéressantes à la fois d'un côté pratique pour la conception robuste de systèmes mais également d'un côté théorique afin d'améliorer les modèles utilisées et d'orienter les mesures expérimentales à réaliser afin d'améliorer la fiabilité de ces modèles.Le contexte de cette thèse est le développement de méthodes efficaces permettant la propagation d'incertitudes présentes dans les paramètres de cinétique chimique des mécanismes réactionnels au sein de simulation aux grandes échelles, ces méthodes devant être non intrusive afin de profiter de l'existence des différents codes de calcul qui sont des outils nécessitant de lourds moyens pour leur développement. Une telle propagation d'incertitude à l'aide d'une méthode de force brute souffre du "fléau de la dimension" du fait du grand nombre de paramètres de cinétique chimique, impliquant une impossibilité pratique avec les moyens de calculs actuels et justifiant le développement de méthodes efficaces.L'objectif de la thèse est donc le développement d'un modèle réduit utilisable pour la propagation d'incertitudes dans la simulation aux grandes échelles. La prise en main et l'implémentation de différents outils issus de la propagation d'incertitudes a été un travail préliminaire indispensable dans cette thèse afin d'amener ces connaissances et compétences au sein du laboratoire EM2C.La méthode développée dans cette thèse pour la propagation d'incertitudes des paramètres de cinétique chimique se restreint aux cas d'une modélisation de la chimie dans laquelle l'avancement du processus de combustion est résumé par l'évolution d'une variable d'avancement donnée par une équation de transport, l'accès aux autres informations se faisant grâce à l'utilisation d'une table. Au travers de l'étude de l'évolution d'un réacteur adiabatique à pression constante contenant un mélange homogène d'air et de dihydrogène, il est montré qu'une grande partie des incertitudes d'un tel système peuvent être expliquées grâce aux incertitudes de la variable d'avancement. Cela permet de définir une table chimique utilisable pour la propagation d'incertitudes des paramètres de cinétique chimique dans les simulations aux grandes échelles. L'introduction des incertitudes se fait alors uniquement par la modélisation du terme source présent dans l'équation de transport de la variable d'avancement, lequel peut être paramétré à l'aide de quelques paramètres incertains évitant ainsi le "fléau de la dimension"
Numerical simulation plays a key role in the field of combustion today, either in the research area by permitting a better understanding of phenomenons taking place inside reactive flows or in the development of industrial application by reducing designing cost of systems. Large Eddy Simulation is at the time the most suited tool for the simulation of reactive flows. Large Eddy Simulation of reactive flows is in practice only possible thanks to a modeling of different phenomenons:- turbulence is modeled for small structures allowing to resolve only big structures which results in lower computational cost- chemistry is modeled using reduction methods which allows to drastically reduce computational costThe maturity of Large Eddy Simulation of reactive flows makes it today a reliable, predictive and promising tool. It now makes sense to focus on the impact of the parameters involved in the different models on the simulation results. This study of the impact of the modeling parameters can be seen from the perspective of uncertainties propagation, and can give interesting informations both from a practical side for the robust design of systems but also on the theoretical side in order to improve the models used and guide the experimental measurements to be made for the reliability improvement of these models.The context of this thesis is the development of efficient methods allowing the propagation of uncertainties present in the chemical kinetic parameters of the reaction mechanisms within Large Eddy Simulation, these methods having to be non-intrusive in order to take advantage of the existence of the different computation codes which are tools requiring heavy means for their development. Such a propagation of uncertainties using a brute-force method suffers from the "curse of dimensionality" because of the large number of chemical kinetic parameters, implying a practical impossibility with the current means of computation which justifies the development of efficient methods.The objective of the thesis is the development of a reduced model that can be used for uncertainties propagation in Large Eddy simulations. The handling and implementation of various tools resulting from the uncertainties propagation framework has been an essential preliminary work in this thesis in order to bring this knowledge and skills into the EM2C laboratory.The method developed in this thesis for the propagation of chemical kinetic parameters uncertainties is limited to chemistry models in which the advancement of the combustion process is summarized by the evolution of a progress variable given by a transport equation, the access to other informations being made through the use of a table. Through the study of the evolution of a constant pressure adiabatic reactor containing a homogeneous mixture of air and dihydrogen, it is shown that a large part of the uncertainties of such a system can be explained by the uncertainties of the progress variable. This makes it possible to define a chemical table that can be used to propagate uncertainties of chemical kinetic parameters in Large Eddy Simulations. The introduction of the uncertainties is then done only by the modeling of the source term present in the transport equation of the progress variable, which can be parameterized with the help of few uncertain parameters thus avoiding the "curse of dimensionality"
11

Clamens, Olivier. "Analyse et propagation des incertitudes associées à la dépressurisation de l’Hélium 3 sur les transitoires de puissance du réacteur CABRI." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI061/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
CABRI est un réacteur piscine conçu pour tester du combustible irradié dans des conditions accidentelles de type RIA, c'est à dire d'insertion intempestive de réactivité.Un circuit dédié de dépressurisation d'hélium 3, contenu dans les barres transitoires, permet d'injecter jusqu'à 4 $ de réactivité contrée majoritairement par l'effet Doppler quand la puissance atteint en quelques millisecondes jusqu'à 200000 fois la puissance initiale de 100 kW.La thèse présente les améliorations apportées à la prédiction des transitoires et les études d'incertitudes qui en découlent.Le calcul par cinétique ponctuelle couplée à la thermohydraulique 1D et échanges de chaleur des transitoires de puissance CABRI a été renforcé par l'ajout de métamodèles basés sur des analyses expérimentales et des calculs Best-Estimate de la dépressurisation d'hélium 3, des effets en réactivité et des paramètres cinétiques.L'amélioration de la modélisation des transitoires de puissance a eu un impact positif sur la prédiction des essais CABRI.Le code SPARTE, associé à la plate-forme URANIE, ont permis de propager les incertitudes expérimentales et de modélisation.Finalement, l'optimisation des transitoires pour améliorer la conception d'expériences dans CABRI est abordée
CABRI is a pool type pulsed reactor designed for studying pre-irradiated nuclear fuel behavior under RIA (Reactivity Initiated Accident) conditions.The helium-3 depressurization from the transient rods system allows the insertion of up to 4 $ reactivity mainly countered by the Doppler effect when the power reaches in few milliseconds up to 200,000 times the initial 100~kW power.This thesis presents the improvements added to the power transients prediction and the associated uncertainties studies.The point kinetics calculation coupled with 1D thermal-hydraulics and heat transfer has been improved by the addition of surrogate models based on experimental analysis and Best-Estimate calculations of the helium-3 depressurization and of the reactivity effects and of the kinetics parameters.The power transients modeling improvements have a positiv impact on the CABRI tests prediction.The propagation of the experimental and of the modeling uncertainties was realized with the SPARTE code and the URANIE uncertainty platform.Finally, the power transients characteristics optimization is approached in order to improve the CABRI experiments designing
12

Gustafsson, Annica. "Analysis of uncertainties in fatigue load assessment : a study on one Kaplan hydro turbine during start operation." Thesis, KTH, Skolan för industriell teknik och management (ITM), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-264237.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In the future, hydropower plants are expected to operate more flexibly. This will lead to a more varied operation of the turbine and the generator, such as more start and stop in order to stabilise the frequency in the grid. Studies show that these transient operations are more costly in terms of fatigue degradation, i.e. consumption of fatigue life. Vattenfall has developed a methodology with the aim to analyse fatigue loads, acting on the runner and the rotor in hydropower units during operation. With a numerical model, the loads are assessed with input data gathered from measurements together with given data on several parameters. Some of the input data are bearing structure stiffness, bearing oil properties, and point of action of forces, etc. Several of these input parameters are subject to a degree of uncertainty, which affect the assessed fatigue load, determined with the methodology. This study will focus on analysing one fatigue force component acting on the runner. The aim with this study is to answer the following research questions: (i) Which input parameters, that are subject to a degree of uncertainty, contribute the most to the combined standard uncertainty in the assessed fatigue force? (ii) How much does the combined standard uncertainty in the assessed fatigue force amount to? (iii) How does the uncertainty in the assessed fatigue force affect the fatigue damage?. The combined standard uncertainty in the fatigue force is determined with methods in uncertainty propagation. In order to evaluate the effect from the uncertainty in the fatigue load on the fatigue damage, a statistical analysis of the ratio between the fatigue damage associated with a probability of exceedance and the expected fatigue damage is conducted. From the results it can be observed that the governing uncertainty parameter is the offset of the shaft displacement signal, which amount to 40 % of the combined standard uncertainty in the fatigue force. Of the nine analysed uncertainty parameters, three parameters are bearing properties parameters, i.e. the bearing clearance, the oil film temperature and the point of action of bearing forces, which amount to 47.5 % of the combined standard uncertainty in the fatigue force. Therefore, in order to decrease the uncertainties, focus should be kept on the bearing properties. Given each parameters uncertainty, the ratio between the combined standard uncertainty in the fatigue force and the expected fatigue force amount to 7 %. This corresponds to a ratio between the standard uncertainty in the fatigue damage and the expected fatigue damage of 35 %, due to the value of the index of S-N curve of five. Given the standard uncertainty in the fatigue force together with the index of S-N-curve, the ratio between the fatigue force associated with a probability of exceedance and the expected fatigue force can be assessed, i.e. the fatigue force ratio. Consequently, the fatigue force ratio amount to 1.32 for a probability of 0.0032 %, 1.09 for a probability of 10 % and 1.04 for a probability of 30 %. These probabilities correspond to the fatigue damage ratios, i.e. the ratios between the fatigue damage associated with a probability of exceedance and the expected fatigue damage of 4, 1.56 and 1.20. Thereby, the uncertainty in the fatigue force can greatly affect the uncertainty in the fatigue damage, dependent on the value of the index of S-N-curve. The results from this study imply the importance of considering the uncertainties in fatigue load assessments. These results provide support for assessing load levels for runner dimensioning to finally, be able to derive a correct margin of safety. This in order to not underestimate fatigue damage and thereby decrease the risk for unexpected fatigue failure.
Det finns ett förväntat behov av att kraftproduktionen i vattenkraftverk skall vara mer flexibel i framtiden. Detta leder till mer varierande driftlägen för turbinen och generatorn, såsom fler start och stop med syfte att stabilisera frekvensen i elnätet. Studier påvisar att transienta driftlägen är mer kostsamma i form av utmattningsdegradering, d.v.s. konsumtion av utmattningsliv. Vattenfall har utvecklat en metodik för att analysera inverkan av utmattningslaster verkande på löphjulet och rotorn i vattenkraftsaggregat under drift. Med en numerisk modell kan utmattningslasterna bedömas. Den ingående datan till modellen är bland annat är uppmätta storheter och given data på parameterar. Några av de ingående storheterna är lagerstyvhet, angreppspunkter för lagerkrafter och lageroljans egenskaper, etc. Flera av dessa ingående parametrar innehar osäkerheter, vilket påverkar bedömningen av utmattningslasterna. Denna studie kommer att fokusera på en kraftkomponent verkande på löphjulet. Malet med detta arbete är att svara på följande forskningsfrågor: (i) Vilka ingående parametrar, som innehar en osäkerhet, bidrar med en styrande osäkerhet i den bedömda kraften? (ii) Hur mycket uppgår den kombinerade standardosäkerheten i den bedömda kraften till? (iii) Hur påverkar kraftens osäkerhet utmattningsskadan? Den kombinerade standardosäkerheten i kraften är beräknad med metoder i fortplantning av osäkerheter. För att kunna bedöma påverkan på delskadan givet osäkerheten i kraften, så sker en statistisk analys av förhållandet mellan delskadan sammanhängande med en sannolikhet för överskridande och den förväntade delskadan. Resultatet påvisar att den styrande ingående parametern är offset i signalen för axelförskjutning, vilken uppgår till 40 % av den kombinerade standardosäkerheten i utmattningskraften. Av de nio analyserade parametrarna härrör tre av dessa lageregenskaper, d.v.s. lagerspel, oljetemperatur och angreppspunkter för lagerkrafterna, vilka tillsammans uppgår till 47.5 % av den kombinerade standardosäkerheten i utmattningskraften. Därför, för att reducera den totala osäkerheten bör fokus ligga på lageregenskaperna. Givet alla standardosäkerheter i de analyserade parametrarna så uppgår förhållandet mellan standardosäkerheten i utmattningskraften och den förväntade utmattningskraften på löphjulet till 7 %. Detta motsvarar att förhållandet mellan standardosäkerheten i delskadan och väntevärdet för delskadan uppkommer till 35 %, givet ett index av S-N-kurvan på fem. Givet standardosäkerheten i kraften och index av S-N-kurvan, kan förhållandet mellan utmattningskraften förenad med en sannolikhet för överskridande, och den förväntade utmattningskraften, d.v.s. kvoten av utmattningskraften, utvärderas. Detta resulterar att kvoten av utmattningskraften uppgår till 1.32 för en sannolikhet för överskridande på 0.0032 %, 1.09 för en sannolikhet på 10 % och 1.04 för en sannolikhet på 30 %. Dessa sannolikheter motsvarar att kvoten av delskadan, d.v.s. kvoten mellan delskadan förenad med en sannolikhet för överskridande, och den förväntade delskadan uppgår till 4, 1.56 och 1.20. Därför kan osäkerheten i utmattningskraften påverka osäkerheten i delskadan med en betydande faktor, beroende på värdet på index av S-N-kurvan. Således, resultaten från denna studie påvisar betydelsen att beakta osäkerheterna i de ingående parameterna vid bedömning av utmattningslast. Dessa resultat tillhandahåller stöd vid bedömning av lastnivåer för dimensionering av löphjul, för att slutligen kunna erhålla en korrekt säkerhetsmarginal. Detta för att inte underskatta utmattningsskadan och därmed minska risken oför oväntat utmattningshaveri.
13

Jannet, Basile. "Influence de la non-stationnarité du milieu de propagation sur le processus de Retournement Temporel (RT)." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22436/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif la quantification de l’impact d’incertitudes affectant le processus de Retournement Temporel (RT). Ces aléas, de natures diverses, peuvent avoir une forte influence s’ils se produisent entre les deux étapes du RT. Dans cette optique la méthode de Collocation Stochastique (CS) est utilisée. Les très bons résultats en termes d’efficacité et de précision observés lors de précédentes études en Compatibilité ÉlectroMagnétique (CEM) se confirment ici, pour des problématiques de RT. Cependant, lorsque la dimension du problème à traiter augmente (nombre de variables aléatoires important), la méthode de CS atteint ses limites en termes d’efficacité. Une étude a donc été menée sur les méthodes d’Analyse de Sensibilité (AS) qui permettent de déterminer les parts d’influence respectives des entrées d’un modèle. Parmi les différentes techniques quantitatives et qualitatives, la méthode de Morris et un calcul des indices de Sobol totaux ont été retenus. Ces derniers apportent des résultats qualitatifs à moindre frais, car seule une séparation des variables prépondérantes est recherchée. C’est pourquoi une méthodologie combinant des techniques d’AS avec la méthode de CS a été développée. En réduisant le modèle aux seules variables prédominantes grâce à une première étude faisant intervenir les méthodes d’AS, la CS peut ensuite retrouver toute son efficacité avec une grande précision. Ce processus global a été validé face à la méthode de Monte Carlo sur différentes problématiques mettant en jeu le RT soumis à des aléas de natures variées
The aim of this thesis is to measure and quantify the impacts of uncertainties in the Time Reversal (TR) process. These random variations, coming from diverse sources, can have a huge influence if they happen between the TR steps. On this perspective, the Stochastique Collocation (SC) method is used. Very good results in terms of effectiveness and accuracy had been noticed in previous studies in ElectroMagnetic Compatibility (EMC). The conclusions are still excellent here on TR problems. Although, when the problem dimension rises (high number of Random Variables (RV)), the SC method reaches its limits and the efficiency decreases. Therefore a study on Sensitivity Analysis (SA) techniques has been carried out. Indeed, these methods emphasize the respective influences of the random variables of a model. Among the various quantitative or qualitative SA techniques the Morris method and the Sobol total sensivity indices have been adopted. Since only a split of the inputs (point out of the predominant RV) is expected, they bring results at a lesser cost. That is why a novel method is built, combining SA techniques and the SC method. In a first step, the model is reduced with SA techniques. Then, the shortened model in which only the prevailing inputs remain, allows the SC method to show once again its efficiency with a high accuracy. This global process has been validated facing Monte Carlo results on several analytical and numerical TR cases subjet to random variations
14

Rousseau, Marie. "Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00788360.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
15

Picheral, Laura. "Contribution à la conception préliminaire robuste en ingéniérie de produit." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00992390.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse portent sur la conception robuste de produit et plus particulièrement sur la phase de pré-dimensionnement dans le cas où un modèle de dimensionnement et un cahier des charges sont déjà définis. Une approche pour réaliser de l'optimisation robuste est proposée pour réduire la dispersion de la fonction objectif du cahier des charges du produit lorsque les paramètres de conception sont sujets aux incertitudes, conserver une bonne performance du produit et assurer une faisabilité des contraintes. Nous proposons ainsi la formulation d'un cahier des charges dit " robuste " transformant la fonction objectif et les contraintes du cahier des charges initial afin d'intégrer une notion de robustesse préalablement définie. La seconde contribution est une analyse des méthodes trouvées dans la littérature pour la propagation d'incertitudes à travers des modèles de dimensionnement. Les variations des paramètres sont alors modélisées par des dispersions probabilistes. L'analyse théorique du fonctionnement de chaque méthode est complétée par des tests permettant d'étudier la précision des résultats obtenus et de sélectionner la méthode utilisée par la suite. L'approche pour l'optimisation robuste de produit proposée dans ce travail est finalement mise en œuvre et testée sur deux études de cas. Elle intègre la méthode de propagation d'incertitudes dans une boucle de l'algorithme d'optimisation de manière à automatiser la recherche d'une solution optimale robuste pour le dimensionnement du produit.
16

Aïssani, Amina. "Optimisation fiabiliste des performances énergétiques des bâtiments." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22677/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte de forte compétitivité économique et de respect de l’environnement, de nombreuses actions sont entreprises chaque année dans le but d’améliorer la performance énergétique des bâtiments. En phase de conception, le recours à la simulation permet d’évaluer les différentes alternatives au regard de la performance énergétique et du confort des occupants et constitue ainsi un outil d’aide à la décision incontournable. Toutefois, il est courant d’observer des écarts entre les performances énergétiques réelles et celles prévues lors de la conception. Cette thèse porte sur l’amélioration du processus de conception de l’isolation dans le but de limiter les déviations des consommations réelles par rapport à celles prévues lors des simulations. Dans un premier temps, nous situons le contexte énergétique actuel puis nous présentons les différentes sources d’incertitudes qui affectent les résultats des simulations. Dans ce travail, nous nous intéressons particulièrement à la variabilité des propriétés thermophysiques des isolants, au caractère variable de la mise en œuvre et à l’impact du changement climatique. Des études expérimentales ont permis de quantifier l’incertitude associée à la performance des matériaux sains d’une part, et celle associée à des isolants défectueux d’autre part. Un couplage entre des techniques de thermographie infrarouge et des modèles éléments finis ont permis de proposer des modèles paramétriques permettant d’évaluer la performance effective d’un isolant défectueux, en fonction du type et de la taille du défaut dans l’isolant. Pour une bonne estimation à long terme de la performance de l’isolation, il est nécessaire d’intégrer les prévisions météorologiques. Ces dernières sont généralement estimées sur la base des données historiques de la région. Toutefois, il est encore difficile de prévoir avec exactitude l’évolution climatique car elle dépend de nombreux facteurs socio-économiques, démographiques et environnementaux. Dans ce travail, nous proposons de considérer les différents scénarios climatiques proposés par les climatologues et de prendre en compte leur variabilité de manière à vérifier la fiabilité de l’isolation. Enfin, nous proposons d’utiliser des approches probabilistes pour intégrer ces différents types d’incertitudes dans le processus de simulation. Pour optimiser le dimensionnement de l’isolation, nous proposons une méthodologie de conception basée sur la fiabilité. Un nouveau modèle de coût est également proposé dans le but d’améliorer l’aide à la décision, en considérant les pertes indirectes, jusqu’à présent négligées dans la conception
In the context of growing world energy demand and environmental degradation, many actions are undertaken each year to improve the energy performance of buildings. During the design stage, the use of building energy simulations remains a valuable tool as it evaluates the possible options in terms of energy performance and comfort. However, as precision requirements increase, it becomes essential to assess the uncertainties associated with input data in simulation. This thesis focuses on the insulation design process under uncertainty, in order to limit gaps between real and predicted performance for better control of energy consumptions. This work firstly presents the current alarming energy context. We consider the main uncertainties that affect the insulation, mainly the variability of the thermophysical properties, the uncertainty on climate and the uncertainties due to workmanship defects. Experimental studies were carried out to evaluate the uncertainty associated to the intrinsic performance of healthy insulation materials on one hand, and those associated to defects in insulations on the other hand. A coupling between thermography techniques and finite element models was used to provide analytical models that assess the effective thermal performance of a defective insulation, according to the type and size of the defect. As the performance of insulation also depends on climate, it is necessary to integrate future weather data to evaluate the energy consumption. These weather data are generally estimated based on the historical climatic data of the region. However, it is still difficult to predict climate change as it depends on many uncontrollable factors. In this work, we consider the different climate scenarios proposed by climate expert groups, and the uncertainty associated to each scenario to evaluate the reliability of the insulation and to improve the decision making process. Finally, we propose a probabilistic approach to integrate uncertainties in simulation and an optimization methodology based on reliability. A new cost formulation is also proposed to improve the decision-making, through indirect losses related to comfort, pollution and living space losses
17

Hu, XiaoSu. "Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"." Thesis, Clermont-Ferrand 2, 2010. http://www.theses.fr/2010CLF22065/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé « os-prothèse non cimentée : DePuy Corail® » a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel
The hip arthroplasty with cementless hip prosthesis is a solution usually used for the patients suffering the problems of the musculoskeletal system. However, such a solution has a major disadvantage, pointed by all users : the lack of primary stability of the prosthesis. This weakness can cause serious complications or failure of the surgery. Therefore, to achieve a good primary fixation is a crucial point of this type of surgery to ensure a short and a long term clinical satisfaction. In order to better understand this central issue, a preoperative track is adopted. A finite element model to describe the mechanical behavior of the coupled system " femur-cementless prosthesis : DePuy Corail® "has been created and validated by the experiments in vitro. Then, in order to take into account the high variability of model parameters, inherent to the nature of the problem, the stochastic modeling of random input parameters has been introduced and a mechanical-probabilistic strategy has been proposed, on the one hand to quantify, in probabilistic terms, the effect, on the response, of the uncertainties affecting the input parameters of the model, and on the other hand to evaluate the primary stability of the bone-prosthesis system in reliability context. The practical implementation of this approach is realized by using the numerical tools based on the standard Monte Carlo method and the stochastic collocation procedure. The originality of the work presented is primarily in the proposition of a probabilistic methodology capable of taking into account the uncertainties in the problem of primary stability of cementless hip prostheses. It also lies in the potentiality of this methodology to be transplantable easily in industrial context
18

Larbi, Mourad. "Méthodes statistiques pour le calcul d’interférences électromagnétiques extrêmes au sein de systèmes complexes." Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prolifération des électroniques et des émetteurs radiofréquences rend de plus en plus compliqué le processus de conception des systèmes sur le plan CEM. Ce processus doit aboutir à limiter le risque d’interférences ou de défauts au niveau le plus faible notamment dans le contexte des interférences électromagnétiques intentionnelles (IEMI). Ces défauts CEM doivent alors être anticipés lors de la phase de conception. Cependant, du fait de la dispersion des valeurs prises par certains paramètres du système, la modélisation déterministe éprouve quelques difficultés à identifier le risque encouru. La mauvaise connaissance de l’effet des incertitudes associées au système, aboutit alors à prendre des marges de conception considérables conduisant à des surcoûts de fabrication. Pour cette raison, il est devenu important de prendre en compte l’impact des incertitudes des différents paramètres constitutifs d’un système (en phase de conception). Ces paramètres sont essentiellement géométriques (e.g. position de câblages) ou électromagnétiques (e.g. caractéristiques intrinsèques de matériaux). Ils influent par nature sur les performances CEM de ce système. Ces travaux de thèse portent sur l’analyse de la propagation des incertitudes relatives à ces paramètres sur des sorties de modèles de CEM. Le but visé, consiste à quantifier sous une forme probabiliste, le risque de défaut d’un système contenant de nombreux paramètres incertains. Ce type d’étude statistique devrait également permettre, via des analyses de sensibilité, des stratégies de conception de systèmes « fiables » ou à moindres coûts. Dans le contexte des applications visées, les approches dites « fiabilistes » et la méthode dite de « stratification contrôlée », ont été identifiées comme intéressantes, du point de vue de l’analyse d’événements extrêmes. Dans un premier temps, nous nous sommes consacrés à la transposition des méthodes fiabilistes dans un contexte CEM. Ces techniques permettent de quantifier la probabilité de défaillance d’un système, définie comme le dépassement d’un seuil de risque, et renseignent, via une analyse de sensibilité locale, sur les paramètres clés à ajuster. Dans un second temps, nous nous sommes intéressés à la méthode de stratification contrôlée, non appliquée à ce jour à notre connaissance en CEM. L’objectif de cette approche consiste à estimer un quantile extrême de la réponse d’intérêt d’un modèle rigoureux, via l’utilisation d’un modèle simple beaucoup moins coûteux en termes de temps de calcul. Ce processus permet d’accélérer l’obtention d’observations extrêmes, nécessaires à l’estimation du quantile recherché. Les deux techniques ont été mises en oeuvre sur un problème complexe dans un contexte IEMI, pour estimer la probabilité d’occurrence d’événements d’interférences extrêmes. Elles ont permis de dégager des tendances similaires, quant à l’importance de certains paramètres d’entrée incertains sur les événements rares. Les deux méthodes, bien appliquées, pourraient constituer un apport considérable en matière de conception CEM
The proliferation of electronic and radio frequency transmitters makes more complicated the system design process on the EMC point of view. This process should lead to limit the risk of interferences or defects to lowest level particularly in the context of intentional electromagnetic interferences (IEMI). Therefore, these EMC defects have to be anticipated during the design stage. However, due to the dispersion of the values taken by some parameters of the system, the deterministic modeling presents some difficulties to identify the involved risk. The poor knowledge of the uncertainties effect associated with the system, leads then to take important design margins at the price of additional costs of manufacturing. For this reason, it has become important to take into account the impact of uncertainties of the various constituent parameters of a system (at the design stage). These parameters are essentially geometric (e.g. position of wirings) or electromagnetic (e.g. intrinsic characteristics of materials) ones. They influence by nature the EMC performance of this system. This thesis work deals with the analysis of the propagation of uncertainties of these parameters on EMC model outputs. It aims at quantifying in a probabilistic form, the default risk of a system containing numerous uncertain parameters. This type of statistical analysis should also allow through sensitivity analyses, design strategies of “reliable” systems or at lower cost. In the context of targeted applications, the so-called “reliability approaches” and the “controlled stratification” method have been identified as interesting from the point of view of the analysis of extreme events. Firstly, we are dedicated to the transposition of reliability methods in an EMC context. These techniques are used to quantify the probability of failure of a system, defined as the probability of exceeding a threshold of risk. They inform through a local sensitivity analysis, on the key parameters to adjust. Secondly, we have focused our work on the controlled stratification method, not yet applied in EMC as far as we know. The objective of this approach is to estimate an extreme quantile of the interest response of a rigorous model, using of a much cheaper simple model in terms of computation time. This process allows to speed up the identification of extreme observations required for the estimation of the researched quantile. Both techniques have been applied on a complex problem in an IEMI context, to estimate the probability of occurrence of extreme interference events. They have revealed similar trends as regards to the importance of some uncertain input parameters on rare events. Both methods, properly applied, could provide a significant contribution in terms of EMC design strategy
19

Navas, Nunez Rafael. "Modélisation hydrologique distribuée des crues en région Cévennes-Vivarais : impact des incertitudes liées à l'estimation des précipitations et à la paramétrisation du modèle." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est connu qu’avoir un système d’observation de la pluie de haute résolution spatio – temporelle est crucial pour obtenir de bons résultats dans la modélisation pluie – écoulement. Le radar est un outil qui donne des estimations quantitatives de precipitation avec une très bonne résolution. Lorsqu’il est fusionné avec un réseau des pluviomètres les avantages des deux systèmes sont obtenus. Cependant, les estimations fournies par le radar ont des incertitudes différentes à celles qui sont obtenus avec les pluviomètres. Dans le processus de calcul pluie – écoulement l'incertitude des précipitations interagit avec l'incertitude du modèle hydrologique. L’objectif de ce travail est d’étudier les méthodes utilisées pour quantifier l'incertitude dans l'estimation des précipitations par fusion radar – pluviomètres et de l'incertitude dans la modélisation hydrologique, afin de développer une méthodologie d'analyse de leurs contributions individuelles au traitement pluie - écoulement.Le travail est divisé en deux parties, la première cherche à évaluer: Comment peut-on quantifier l'incertitude de l'estimation des précipitations par radar? Pour répondre à la question, l'approche géostatistique par Krigeage avec Dérive Externe (KED) et Génération Stochastique de la précipitation a été utilisée, qui permet de modéliser la structure spatio – temporaire de l’erreur. La méthode a été appliquée dans la région des Cévennes - Vivarais (France), où il y a un système très dense d'observation. La deuxième partie explique: Comment pourrais être quantifiée l'incertitude de la simulation hydrologique qui provient de l'estimation de précipitation par radar et du processus de modélisation hydrologique? Dans ce point, l'outil de calcul hydrologique à Mesoéchelle (HCHM) a été développé, c’est un logiciel hydrologique distribuée et temps continu, basé sur le Numéro de Courbe et l’Hydrographe Unitaire. Il a été appliqué dans 20 résolutions spatio - temporelles allant de 10 à 300 km2 et 1 à 6 heures dans les bassins de l’Ardèche (~ 1971 km2) et le Gardon (1810 km2). Apres une analyse de sensibilité, le modèle a été simplifié avec 4 paramètres et l’incertitude de la chaîne de processus a été analysée: 1) Estimation de precipitation; 2) Modélisation hydrologique; et 3) Traitement pluie - écoulement, par l’utilisation du coefficient de variation de l'écoulement simulé.Il a été montré que KED est une méthode qui fournit l’écart type de l’estimation des précipitations, lequel peut être transformé dans une estimation stochastique de l’erreur locale. Dans la chaîne des processus: 1) L'incertitude dans l'estimation de précipitation augmente avec la réduction de l’échelle spatio – temporelle, et son effet est atténué par la modélisation hydrologique, vraisemblablement par les propriétés de stockage et de transport du bassin ; 2) L'incertitude de la modélisation hydrologique dépend de la simplification des processus hydrologiques et pas de la surface du bassin ; 3) L'incertitude dans le traitement pluie - écoulement est le résultat de la combinaison amplifiée des incertitudes de la précipitation et la modélisation hydrologique
It is known that having a precipitation observation system at high space - time resolution is crucial to obtain good results in rainfall - runoff modeling. Radar is a tool that offers quantitative precipitation estimates with very good resolution. When it is merged with a rain gauge network the advantages of both systems are achieved. However, radars estimates have different uncertainties than those obtained with the rain gauge. In the modeling process, uncertainty of precipitation interacts with uncertainty of the hydrological model. The objective of this work is: To study methods used to quantify the uncertainty in radar – raingauge merge precipitation estimation and uncertainty in hydrological modeling, in order to develop a methodology for the analysis of their individual contributions in the uncertainty of rainfall - runoff estimation.The work is divided in two parts, the first one evaluates: How the uncertainty of radar precipitation estimation can be quantified? To address the question, the geostatistical approach by Kriging with External Drift (KED) and Stochastic Generation of Precipitation was used, which allows to model the spatio - temporal structure of errors. The method was applied in the Cévennes - Vivarais region (France), where there is a very rich observation system. The second part explains: How can it be quantified the uncertainty of the hydrological simulation coming from the radar precipitation estimates and hydrological modeling process? In this point, the hydrological mesoscale computation tool was developed; it is distributed hydrological software in time continuous, within the basis of the Curve Number and the Unit Hydrograph. It was applied in 20 spatio-temporal resolutions ranging from 10 to 300 km2 and 1 to 6 hours in the Ardèche (~ 1971 km2) and the Gardon (1810 km2) basins. After a sensitivity analysis, the model was simplified with 4 parameters and the uncertainty of the chain of process was analyzed: 1) Precipitation estimation; 2) Hydrological modeling; and 3) Rainfall - runoff estimation, by using the coefficient of variation of the simulated flow.It has been shown that KED is a method that provides the standard deviation of the precipitation estimation, which can be transformed into a stochastic estimation of the local error. In the chain of processes: 1) Uncertainty in precipitation estimation increases with decreasing spatio-temporal scale, and its effect is attenuated by hydrological modeling, probably due by storage and transport properties of the basin; 2) The uncertainty of hydrological modeling depends on the simplification of hydrological processes and not on the surface of the basin; 3) Uncertainty in rainfall - runoff treatment is the result of the amplified combination of precipitation and hydrologic modeling uncertainties
20

Lambert, Sylvain. "Contribution à l'analyse de l'endommagement par fatigue et au dimensionnement de structures soumises à des vibrations aléatoires." Phd thesis, INSA de Rouen, 2007. http://tel.archives-ouvertes.fr/tel-00560885.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée au développement d'un outil de pré-dimensionnement par éléments finis pour l'estimation de l'endommagement par fatigue polycyclique de structures linéaires sous chargements multiaxiaux et stationnaires gaussiens. L'état de contraintes atteint dans ces structures étant aléatoire, il devient nécessaire de raisonner en terme de statistique et l'approche spectrale s'avère particulièrement adaptée pour cette situation. Dans ce travail, les méthodes spectrales sont améliorées par la prise en compte des largeurs de bande des spectres de réponses des structures soumises à des chargements nonproportionnels et de moyennes non nulles. Le critère d'endommagement de Sines est retenu. L'étude numérique de la distribution de l'endommagement résultant des incertitudes sur les paramètres matériaux et des applications dans le domaine de l'optimisation des structures sont également abordées.
21

Villanueva, Juan Moises Mauricio. "Determinação de aproximação linear por partes de funções não lineares para sistemas embarcados utilizando algoritmos genéticos." Universidade Federal do Maranhão, 2005. http://tedebc.ufma.br:8080/jspui/handle/tede/377.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Made available in DSpace on 2016-08-17T14:52:56Z (GMT). No. of bitstreams: 1 Juan Moises Mauricio Villanueva.pdf: 944458 bytes, checksum: 0b17f88c59a4149e61f4f3fa0969445e (MD5) Previous issue date: 2005-03-03
In several applications in electronics, the generation of nonlinear function values using low-cost embedded systems is a problem. The nonlinear functions cannot be directly implemented due to restrictions of fixed-point calculations and limited resolution that are characteristics of the architecture of the processor employed. In this work, a procedure for determining piecewise linear approximation of nonlinear functions for a low-cost embedded system is presented. In order to solve this problem, a hierarchical evolutionary algorithm has been developed for determining the position and the minimal number of breakpoints and the minimal size of the look-up table for storing these breakpoints, for generating the approximated function values. The nonlinear function can be approximated using piecewise linear functions from the obtained breakpoints. The developed algorithm is tested using the case of approximating the first quadrant of a sine function, and the obtained results are presented for different resolutions for the input and output values generation.
Em diversas aplicações em eletrônica existe o problema de gerar valores de funções não lineares utilizando-se sistemas embarcados de baixo custo. Essas funções não lineares não podem ser implementadas diretamente devido às restrições de cálculo em ponto fixo e resolução limitada, características de arquitetura do processador empregado. Nesta dissertação, apresenta-se um procedimento para a determinação de aproximação linear por partes de funções não lineares para sistemas embarcados de baixo custo. Para resolver este problema, desenvolveu-se um algoritmo hierárquico evolutivo que determinará a posição e número mínimo de pontos de quebra e tamanho mínimo da tabela de equivalência para armazenar esses pontos de quebra, para gerar os valores da função aproximada. A função não linear pode então ser aproximada por funções lineares a partir dos valores dos pontos de quebra encontrados. O algoritmo desenvolvido é testado para o caso de aproximação da função seno no primeiro quadrante, e os resultados obtidos são apresentados para diversas resoluções de entrada e de geração dos valores de saída.
22

Bontemps, Stéphanie. "Validation expérimentale de modèles : application aux bâtiments basse consommation." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0337/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec la généralisation de la construction des bâtiments basse consommation, passifs et à énergie positive, mais aussi la rénovation du parc existant, il est indispensable d’avoir recours à la simulation pour évaluer, entre autres, les performances énergétique et environnementale atteintes par ces nouveaux bâtiments. Les attentes en termes de garantie de performance énergétique étant de plus en plus importantes, il est primordial de s’assurer de la fiabilité des outils de simulation utilisés. En effet, les codes de simulation doivent être capables de représenter le comportement de ces nouveaux types de bâtiments de la façon la plus juste et fidèle possible. De plus, les incertitudes liées aussi bien aux paramètres de conception qu’aux différentes sollicitations ainsi qu’aux usages des bâtiments doivent être prises en compte pour pouvoir garantir la performance du bâtiment sur sa durée de vie.Cette thèse s’est intéressée à la validation expérimentale de modèles appliquée à un bâtiment de type cellule test. Cette méthodologie de validation se déroule en plusieurs étapes au cours desquelles on évalue la qualité du modèle en termes de justesse et de fidélité. Plusieurs cas d’études ont été menés sur lesquels nous avons pu identifier les paramètres les plus influents sur la sortie du modèle, examiner l’influence du pas de temps sur le processus de validation expérimentale, analyser l’influence de l’initialisation et confirmer l’aptitude de la méthodologie à tester le modèle
Construction of low, passive and positive energy buildings is generalizing and existing buildings are being renovated. For this reason, it is essential to use simulation in order to estimate, among other things, energy and environmental performances reached by these new buildings. Expectations regarding guarantee of energy performance being more and more important, it is crucial to ensure the reliability of simulation tools being used. Indeed, simulation codes should reflect the behavior of these new kinds of buildings in the most consistent and accurate manner. Moreover, the uncertainty related to design parameters, as well as solicitations and building uses have to be taken into account in order to guarantee building energy performance during its lifetime.This thesis investigates the empirical validation of models applied to a test cell building. This validation process is divided into several steps, during which the quality of the model is evaluated as far as consistency and accuracy are concerned. Several study cases were carried out, from which we were able to identify the most influential parameters on model output, inspect the influence of time step on the empirical validation process, analyze the influence of initialization and confirm methodology’s ability to test the model
23

Ung, Philippe. "Simulation numérique du transport sédimentaire : aspects déterministes et stochastiques." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons à l'étude d'un modèle de transport de sédiments en nous plaçant sous deux angles d'approche différents. L'un concerne la modélisation numérique du problème et propose une méthode de résolution numérique basée sur un solveur de Riemann approché pour le système de Saint-Venant-Exner qui reste un des systèmes les plus répandus pour traiter le transport sédimentaire par charriage. Ce dernier repose sur un couplage du modèle hydraulique de Saint-Venant et du modèle morphodynamique d'Exner. Le point essentiel de la méthode proposée se situe au niveau du traitement du couplage de ce système. En effet, il existe deux stratégies; la première consiste à découpler la résolution de la partie fluide de la partie solide et les faire interagir à des instants donnés alors que la seconde considère une résolution couplée du système en mettant à jour conjointement les grandeurs hydrauliques et solides aux mêmes instants. Se posera alors la question du choix de la stratégie de résolution pour laquelle nous apporterons des éléments de réponses en comparant les deux approches. L'autre se concentre sur la mise en place d'une méthodologie pour l'étude des incertitudes liées au même modèle. Pour ce faire, nous proposons une formulation stochastique du système de Saint-Venant-Exner et nous cherchons à caractériser la variabilité des sorties par rapport aux paramètres d'entrée naturellement aléatoires. Cette première étude révélera la nécessité de revenir à un système de Saint-Venant avec un fond bruité pour étudier la sensibilité des grandeurs hydrauliques par rapport aux perturbations topographiques
In this thesis, we are interested on the study of a sediment transport model through two different approaches. One of them concerns the numerical modelling of the problem and proposes a numerical problem-solving method based on an approximate Riemann solver for the Saint-Venant-Exner system which is one of the most common model to deal with sedimentary bed-load transport. This last one is based on a coupling between the hydraulic model of Saint-Venant and the morphodynamic model of Exner. The key point of the proposed method is the treatment of the coupling issue. Indeed, there exists two strategies; the first one consists on decoupling the resolution of the fluid part from the solid part and making them interact at fixed times whereas the second one considers a coupled approach to solve the system by jointly updating the hydraulic and solid quantities at same times. We then raise the issue of the choice of the strategy for which we suggest answers by comparing both approaches. The other one focuses on the development of a methodology to study the uncertainties related to the model previously mentioned. To this end, we propose a stochastic formulation of the Saint-Venant-Exner system and we look for characterizing the variabilities of the outputs in relation to the naturally random input parameters. This first study reveals the need for a return to the Saint-Venant system with a perturbed bed to understand the sensitivity of the hydraulic quantities on the topographical perturbations
24

Merheb, Rania. "Fiabilité des outils de prévision du comportement des systèmes thermiques complexes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00969036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception des bâtiments à faible consommation d'énergie est devenue un enjeu très important dans le but de réduire au maximum la consommation d'énergie et les émissions de gaz à effet de serre associées. Pour y arriver, il est indispensable de connaître les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique des bâtiments d'un part, et de les caractériser et les évaluer d'autre part.Pour répondre aux exigences courantes en termes de fiabilité des prévisions du comportement thermique des bâtiments, nous avons essayé dans le cadre de cette thèse de quantifier les incertitudes liés à des paramètres influents, de proposer une technique de diagnostic de l'enveloppe, propager les incertitudes via une méthode ensembliste sur un modèle simplifié et puis proposer une démarche permettant d'identifier les paramètres de modélisation les plus influents et d'évaluer leur effet sur les performances énergétiques avec le moindre coût en termes de simulations.
25

Chakchouk, Mohamed. "Conceptiοn d'un détecteur de système mécatronique mobile intelligent pour observer des molécules en phase gazeuse en ΙR." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR06.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail anticipe que, dans un monde technologique numérique en constante expansion, les percées technologiques dans l'analyse des données collectées par des dispositifs spectroscopiques permettront l'identification presque instantanée d'espèces connues observées in-situ dans un environnement spécifique, laissant l'analyse approfondie nécessaire aux espèces non observées. La méthode dérivée de la technologie RBDO (Reliability Based Design Optimisation) sera utilisé pour implémenter une procédure d’intelligence artificielle afin d'identifier les espèces observées à partir d'un capteur IR mobile. Afin d'analyser avec succès les données obtenues, il est nécessaire d'assigner de manière appropriée les espèces moléculaires à partir des données IR observées en utilisant les modèles théoriques appropriés. Ce travail se concentre sur l'observation à partir d'appareils mobiles équipés de capteurs, d'antennes et d'électronique appropriés pour capturer et envoyer des données brutes ou analysées à partir d'un environnement spectroscopique IR intéressant. Il est donc intéressant voir indispensable de se concentrer sur les outils théoriques basés sur la symétrie pour l'analyse spectroscopique des molécules, ce qui permet d'identifier les fenêtres IR à choisir pour l'observation dans la conception de l'appareil. Ensuite, en ajustant les paramètres théoriques spectroscopiques aux fréquences observées, le spectre d'une espèce moléculaire peut être reconstruit. Une déconvolution des spectres observés est nécessaire avant l'analyse en termes d'intensité, de largeur et de centre de raie caractérisant une forme de raie. Une stratégie adéquate est donc nécessaire lors de la conception pour inclure l'analyse des données pendant la phase d'observation, qui peut bénéficier d'un algorithme d'intelligence artificielle pour tenir compte des différences dans la signature spectrale IR à cet égard, le pouvoir analytique des données de l'instrument peut être amélioré en utilisant la méthodologie d'optimisation de la conception basée sur la fiabilité (RBDO). Basée sur le comportement multiphysique de la propagation des incertitudes dans l'arbre hiérarchique du système, la RBDO utilise une modélisation probabiliste pour analyser l'écart par rapport à la sortie souhaitée comme paramètres de rétroaction pour optimiser la conception au départ. Le but de cette thèse est de traiter les paramètres de fenêtres d'observation IR, afin de traiter les questions de fiabilité au-delà de la conception mécatronique, pour inclure l'identification des espèces par l'analyse des données collectées
This work anticipates that, in an ever-expanding digital technology world, technological breakthroughs in the analysis of data collected by spectroscopic devices will allow the almost instantaneous identification of known species observed in-situ in a specific environment, leaving the necessary in-depth analysis of unobserved species. The method derived from RBDO (Reliability Based Design Optimization) technology will be used to implement an artificial intelligence procedure to identify observed species from a mobile IR sensor. To successfully analyze the obtained data, it is necessary to appropriately assign molecular species from the observed IR data using appropriate theoretical models. This work focuses on the observation from mobile devices equipped with appropriate sensors, antennas, and electronics to capture and send raw or analyzed data from an interesting IR spectroscopic environment. It is therefore interesting if not essential to focus on symmetry-based theoretical tools for the spectroscopic analysis of molecules, which allows to identify the IR windows to be chosen for observation in the design of the device. Then, by fitting the theoretical spectroscopic parameters to the observed frequencies, the spectrum of a molecular species can be reconstructed. A deconvolution of the observed spectra is necessary before the analysis in terms of intensity, width and line center characterizing a line shape. Therefore, an adequate strategy is needed in the design to include data analysis during the observation phase, which can benefit from an artificial intelligence algorithm to account for differences in the IR spectral signature. In this regard, the analytical power of the instrument data can be improved by using the reliability-based design optimization (RBDO) methodology. Based on the multi-physics behavior of uncertainty propagation in the hierarchical system tree, RBDO uses probabilistic modeling to analyze the deviation from the desired output as feedback parameters to optimize the design in the first place. The goal of this thesis is to address IR observation window parameters to address reliability issues beyond mechatronic design to include species identification through analysis of collected data
26

Ben, Daoued Amine. "Modélisation de la conjonction pluie-niveau marin et prise en compte des incertitudes et de l’impact du changement climatique : application au site du Havre." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2528.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation des combinaisons de phénomènes d’inondation est une problématique d’actualité pour la communauté scientifique qui s’intéresse en priorité aux sites urbains et nucléaires. En effet, il est fort probable que l’approche déterministe explorant un certain nombre de scénarios possède certaines limites car ces scénarios déterministes assurent un conservatisme souvent excessif. Les approches probabilistes apportent une précision supplémentaire en s’appuyant sur les statistiques et les probabilités pour compléter les approches déterministes. Ces approches probabilistes visent à identifier et à combiner plusieurs scénarios d’aléa possibles pour couvrir plusieurs sources possibles du risque. L’approche probabiliste d’évaluation de l’aléa inondation (Probabilistic Flood Hazard Assessment ou PFHA) proposée dans cette thèse permet de caractériser une (des) quantité(s) d’intérêt (niveau d’eau, volume, durée d’immersion, etc.) à différents points d’un site en se basant sur les distributions des différents phénomènes de l’aléa inondation ainsi que les caractéristiques du site. Les principales étapes du PFHA sont : i) identification des phénomènes possibles (pluies, niveau marin, vagues, etc.), ii) identification et probabilisation des paramètres associés aux phénomènes d’inondation sélectionnés, iii) propagation de ces phénomènes depuis les sources jusqu’aux point d’intérêt sur le site, iv) construction de courbes d’aléa en agrégeant les contributions des phénomènes d’inondation. Les incertitudes sont un point important de la thèse dans la mesure où elles seront prises en compte dans toutes les étapes de l’approche probabiliste. Les travaux de cette thèse reposent sur l’étude de la conjonction de la pluie et du niveau marin et apportent une nouvelle méthode de prise en compte du déphasage temporel entre les phénomènes (coïncidence). Un modèle d’agrégation a été développé afin de combiner les contributions des différents phénomènes d’inondation. La question des incertitudes a été étudiée et une méthode reposant sur la théorie des fonctions de croyance a été utilisée car elle présente des avantages divers par rapport aux autres concepts (modélisation fidèle dans les cas d’ignorance totale et de manque d’informations, possibilité de combiner des informations d’origines et de natures différentes, etc.). La méthodologie proposée est appliquée au site du Havre, en France
The modeling of the combinations of flood hazard phenomena is a current issue for the scientific community which is primarily interested in urban and nuclear sites. Indeed, it is very likely that the deterministic approach exploring several scenarios has certain limits because these deterministic scenarios ensure an often excessive conservatism. Probabilistic approaches provide additional precision by relying on statistics and probabilities to complement deterministic approaches. These probabilistic approaches aim to identify and combine many possible hazard scenarios to cover many possible sources of risk. The Probabilistic Flood Hazard Assessment (PFHA) proposed in this thesis allows to characterize a quantity(ies) of interest (water level, volume, duration of immersion, ect.) at different points of interest of a site based on the distributions of the different phenomena of the flood hazard as well as the characteristics of the site. The main steps of the PFHA are: i) screening of the possible phenomena (rainfall, sea level, waves, ect.), ii) identification and probabilization of the parameters representative of the selected flood phenomena, iii) propagation of these phenomena from their sources to the point of interest on the site, iv) construction of hazard curves by aggregating the contributions of the flood phenomena. Uncertainties are an important topic of the thesis insofar as they will be taken into account in all the steps of the probabilistic approach. The work of this thesis is based on the study of the conjunction of rain and sea level and provide a new method for taking into account the temporal phase shift between the phenomena (coincidence). An aggregation model has been developed to combine the contributions of different flood phenomena. The question of uncertainties has been studied and a method based on the theory of belief functions has been used because it has various advantages (faithful modeling in cases of total ignorance and lack of information, possibility to combine information of different origins and natures, ect.). The proposed methodology is applied on the site of Le Havre in France
27

"Propagation of Radar Rainfall Uncertainties into Urban Flood Predictions: An Application in Phoenix, AZ." Master's thesis, 2020. http://hdl.handle.net/2286/R.I.57215.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
abstract: The Phoenix Metropolitan region is subject to intense summer monsoon thunderstorms that cause highly localized flooding. Due to the challenges in predicting these meteorological phenomena and modeling rainfall-runoff transformations in urban areas, the ability of the current operational forecasting system to predict the exact occurrence in space and time of floods in the urban region is still very limited. This thesis contributes to addressing this limitation in two ways. First, the existing 4-km, 1-h Stage IV and the new 1-km, 2-min Multi-Radar Multi-Sensor (MRMS) radar products are compared using a network of 365 gages as reference. It is found that MRMS products consistently overestimate rainfall during both monsoonal and tropical storms compared to Stage IV and local rain gauge measurements, although once bias-corrected offer a reasonable estimate for true rainfall at a higher spatial and temporal resolution than rain gauges can offer. Second, a model that quantifies the uncertainty of the radar products is applied and used to assess the propagation of rainfall errors through a hydrologic-hydraulic model of a small urban catchment in Downtown Phoenix using a Monte Carlo simulation. The results of these simulations suggest that for this catchment, the magnitude of variability in the distribution of runoff values is proportional to that of the input rainfall values.
Dissertation/Thesis
Masters Thesis Civil, Environmental and Sustainable Engineering 2020

To the bibliography