Dissertations / Theses on the topic 'Data-driven model order reduction'

To see the other types of publications on this topic, follow the link: Data-driven model order reduction.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Data-driven model order reduction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Quaranta, Giacomo. "Efficient simulation tools for real-time monitoring and control using model order reduction and data-driven techniques." Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/667474.

Full text
Abstract:
Numerical simulation, the use of computers to run a program which implements a mathematical model for a physical system, is an important part of today technological world. It is required in many scientific and engineering fields to study the behaviour of systems whose mathematical models are too complex to provide analytical solutions and it makes virtual evaluation of systems responses possible (virtual twins). This drastically reduces the number of experimental tests for accurate designs of the real system that the numerical model represents. However these virtual twins, based on classical methods which make use of a rich representations of the system (ex. finite element method), rarely allows real-time feedback, even when considering high performance computing, operating on powerful platforms. In these circumstances, the real-time performance required in some applications are compromised. Indeed the virtual twins are static, that is, they are used in the design of complex systems and their components, but they are not expected to accommodate or assimilate data so as to define dynamic data-driven application systems. Moreover significant deviations between the observed response and the one predicted by the model are usually noticed due to inaccuracy in the employed models, in the determination of the model parameters or in their time evolution. In this thesis we propose different methods to solve these handicaps in order to perform real-time monitoring and control. In the first part Model Order Reduction (MOR) techniques are used to accommodate real-time constraints; they compute a good approximation of the solution by simplifying the solution procedure instead of the model. The accuracy of the predicted solution is not compromised and efficient simulations can be performed (digital twins). In the second part Data-Driven modelling are employed to fill the gap between the parametric solution computed by using non-intrusive MOR techniques and the measured fields, in order to make dynamic data-driven application systems, DDDAS, possible (Hybrid Twins).
La simulación numérica, el uso de ordenadores para ejecutar un programa que implementa un modelo matemático de un sistema físico, es una parte importante del mundo tecnológico actual. En muchos campos de la ciencia y la ingeniería es necesario estudiar el comportamiento de sistemas cuyos modelos matemáticos son demasiado complejos para proporcionar soluciones analíticas, haciendo posible la evaluación virtual de las respuestas de los sistemas (gemelos virtuales). Esto reduce drásticamente el número de pruebas experimentales para los diseños precisos del sistema real que el modelo numérico representa. Sin embargo, estos gemelos virtuales, basados en métodos clásicos que hacen uso de una rica representación del sistema (por ejemplo, el método de elementos finitos), rara vez permiten la retroalimentación en tiempo real, incluso cuando se considera la computación en plataformas de alto rendimiento. En estas circunstancias, el rendimiento en tiempo real requerido en algunas aplicaciones se ve comprometido. En efecto, los gemelos virtuales son estáticos, es decir, se utilizan en el diseño de sistemas complejos y sus componentes, pero no se espera que acomoden o asimilen los datos para definir sistemas de aplicación dinámicos basados en datos. Además, se suelen apreciar desviaciones significativas entre la respuesta observada y la predicha por el modelo, debido a inexactitudes en los modelos empleados, en la determinación de los parámetros del modelo o en su evolución temporal. En esta tesis se proponen diferentes métodos para resolver estas limitaciones con el fin de realizar un seguimiento y un control en tiempo real. En la primera parte se utilizan técnicas de Reducción de Modelos para satisfacer las restricciones en tiempo real; estas técnicas calculan una buena aproximación de la solución simplificando el procedimiento de resolución en lugar del modelo. La precisión de la solución no se ve comprometida y se pueden realizar simulaciones efficientes (gemelos digitales). En la segunda parte se emplea la modelización basada en datos para llenar el vacío entre la solución paramétrica, calculada utilizando técnicas de reducción de modelos no intrusivas, y los campos medidos, con el fin de hacer posibles los sistemas de aplicación dinámicos basados en datos (gemelos híbridos).
La simulation numérique, c'est-à-dire l'utilisation des ordinateurs pour exécuter un programme qui met en oeuvre un modèle mathématique d'un système physique, est une partie importante du monde technologique actuel. Elle est nécessaire dans de nombreux domaines scientifiques et techniques pour étudier le comportement de systèmes dont les modèles mathématiques sont trop complexes pour fournir des solutions analytiques et elle rend possible l'évaluation virtuelle des réponses des systèmes (jumeaux virtuels). Cela réduit considérablement le nombre de tests expérimentaux nécessaires à la conception précise du système réel que le modèle numérique représente. Cependant, ces jumeaux virtuels, basés sur des méthodes classiques qui utilisent une représentation fine du système (ex. méthode des éléments finis), permettent rarement une rétroaction en temps réel, même dans un contexte de calcul haute performance, fonctionnant sur des plates-formes puissantes. Dans ces circonstances, les performances en temps réel requises dans certaines applications sont compromises. En effet, les jumeaux virtuels sont statiques, c'est-à-dire qu'ils sont utilisés dans la conception de systèmes complexes et de leurs composants, mais on ne s'attend pas à ce qu'ils prennent en compte ou assimilent des données afin de définir des systèmes d'application dynamiques pilotés par les données. De plus, des écarts significatifs entre la réponse observée et celle prévue par le modèle sont généralement constatés en raison de l'imprécision des modèles employés, de la détermination des paramètres du modèle ou de leur évolution dans le temps. Dans cette thèse, nous proposons di érentes méthodes pour résoudre ces handicaps afin d'effectuer une surveillance et un contrôle en temps réel. Dans la première partie, les techniques de Réduction de Modèles sont utilisées pour tenir compte des contraintes en temps réel ; elles calculent une bonne approximation de la solution en simplifiant la procédure de résolution plutôt que le modèle. La précision de la solution n'est pas compromise et des simulations e caces peuvent être réalisées (jumeaux numériquex). Dans la deuxième partie, la modélisation pilotée par les données est utilisée pour combler l'écart entre la solution paramétrique calculée, en utilisant des techniques de réduction de modèles non intrusives, et les champs mesurés, afin de rendre possibles des systèmes d'application dynamiques basés sur les données (jumeaux hybrides).
APA, Harvard, Vancouver, ISO, and other styles
2

Ibañez, Pinillo Ruben. "Advanced physics-based and data-driven strategies." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0021.

Full text
Abstract:
Les sciences de l'ingénieur basées sur la simulation (Simulation Based Engineering Science, SBES) ont apporté des améliorations majeures dans l'optimisation, le contrôle et l'analyse inverse, menant toutes à une meilleure compréhension de nombreux processus se produisant dans le monde réel. Ces percées notables sont présentes dans une grande variété de secteurs tels que l'aéronautique ou l'automobile, les télécommunications mobiles ou la santé, entre autres. Néanmoins, les SBES sont actuellement confrontées à plusieurs difficultés pour fournir des résultats précis dans des problèmes industriels complexes. Outre les coûts de calcul élevés associés aux applications industrielles, les erreurs introduites par la modélisation constitutive deviennent de plus en plus importantes lorsqu'il s'agit de nouveaux matériaux. Parallèlement, un intérêt sans cesse croissant pour des concepts tels que les données massives (big data), l'apprentissage machine ou l'analyse de données a été constaté. En effet, cet intérêt est intrinsèquement motivé par un développement exhaustif des systèmes d'acquisition et de stockage de données. Par exemple, un avion peut produire plus de 500 Go de données au cours d'un seul vol. Ce panorama apporte une opportunité parfaite aux systèmes d'application dynamiques pilotés par les données (Dynamic Data Driven Application Systems, DDDAS), dont l'objectif principal est de fusionner de manière dynamique des algorithmes de simulation classiques avec des données provenant de mesures expérimentales. Dans ce scénario, les données et les simulations ne seraient plus découplées, mais une symbiose à exploiter permettrait d'envisager des situations jusqu'alors inconcevables. En effet, les données ne seront plus comprises comme un étalonnage statique d'un modèle constitutif donné mais plutôt comme une correction dynamique du modèle dès que les données expérimentales et les simulations auront tendance à diverger. Plusieurs algorithmes numériques seront présentés tout au long de ce manuscrit dont l'objectif principal est de renforcer le lien entre les données et la mécanique computationnelle. La première partie de la thèse est principalement axée sur l'identification des paramètres, les techniques d'analyse des données et les techniques de complétion de données. La deuxième partie est axée sur les techniques de réduction de modèle (MOR), car elles constituent un allié fondamental pour satisfaire les contraintes temps réel découlant du cadre DDDAS
Simulation Based Engineering Science (SBES) has brought major improvements in optimization, control and inverse analysis, all leading to a deeper understanding in many processes occurring in the real world. These noticeable breakthroughs are present in a vast variety of sectors such as aeronautic or automotive industries, mobile telecommunications or healthcare among many other fields. Nevertheless, SBES is currently confronting several difficulties to provide accurate results in complex industrial problems. Apart from the high computational costs associated with industrial applications, the errors introduced by constitutive modeling become more and more important when dealing with new materials. Concurrently, an unceasingly growing interest in concepts such as Big-Data, Machine Learning or Data-Analytics has been experienced. Indeed, this interest is intrinsically motivated by an exhaustive development in both dataacquisition and data-storage systems. For instance, an aircraft may produce over 500 GB of data during a single flight. This panorama brings a perfect opportunity to the socalled Dynamic Data Driven Application Systems (DDDAS), whose main objective is to merge classical simulation algorithms with data coming from experimental measures in a dynamic way. Within this scenario, data and simulations would no longer be uncoupled but rather a symbiosis that is to be exploited would achieve milestones which were inconceivable until these days. Indeed, data will no longer be understood as a static calibration of a given constitutive model but rather the model will be corrected dynamically as soon as experimental data and simulations tend to diverge. Several numerical algorithms will be presented throughout this manuscript whose main objective is to strengthen the link between data and computational mechanics. The first part of the thesis is mainly focused on parameter identification, data-driven and data completion techniques. The second part is focused on Model Order Reduction (MOR) techniques, since they constitute a fundamental ally to achieve real time constraints arising from DDDAS framework
APA, Harvard, Vancouver, ISO, and other styles
3

Waseem, Abdullah. "Numerical Homogenization and Model Reduction for Transient Heat, Diffusion and coupled Mechanics Problems." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0028.

Full text
Abstract:
Dans cette thèse, des techniques d'homogénéisation numérique efficaces en termes de calcul sont présentées pour les phénomènes de diffusion dans des matériaux hétérogènes. Comme étape préliminaire, une réduction de modèle pour l'équation de diffusion de chaleur transitoire est effectuée à la microéchelle en utilisant la synthèse en mode composants, qui fournit une description émergente enrichie-continuum à l’échelle macroscopique. Sur la base de la localisation des variables d'enrichissement, soit sur les nœuds d'éléments finis, soit sur les points de quadrature, deux schémas de discrétisation spatiale sont analysés pour le diplacement milieu continu. La formulation du potentiel chimique et des champs de déformation est utilisée, ce qui permet l'utilisation d'éléments finis continus en C0 standard. Le problème de la micro-échelle, qui implique généralement une solution coûteuse du problème de la mécanique de diffusion de masse couplée est maintenant remplacée par un ensemble d'équations différentielles ordinaires grâce à la réduction du modèle. Enfin, une approche alternative de réduction de modèle utilisant la mécanique basée sur les données est explorée. Il repose sur une recherche directe et une interpolation à partir d'une base de données au lieu de la solution d'un problème microscopique. La base de données est construite et stockée en utilisant les calculs microscopiques dans une étape hors ligne. Il fournit également une voie pour étendre la méthode de réduction du modèle proposée au régime non linéaire
In this thesis computationally efficient numerical homogenization techniques are presented for diffusion phenomena in heterogeneous materials. As a preliminary step, a model reduction for the transient heat diffusion equation is performed at the micro-scale using component mode synthesis, which provides an emergent enriched-continuum description at the macro-scale. Based on the location of the enrichmentvariables, either on the finite element nodes or the quadrature points, two spatial discretization schemes are analyzed for the enrichedcontinuum. The proposed model reduction is also extended to the transient mass diffusion coupled to the mechanics with application to lithium-ion batteries. Chemical potential and strain fields formulation is used which allows the use of standard C0-continuous finite elements. The micro-scale problem, which usually involves an expensive solution of the coupled mass diffusionmechanics problem is now replaced by a set of ordinary differential equations through model reduction. Finally, an alternative model reduction approach using data-driven mechanics is explored. It relies on a direct search and interpolation from a database instead of the solution of a microscopic problem. The database is constructed and stored using the microscopic calculations in an offline stage. It also provides a route to extend the proposed model reduction method to the nonlinear regime
APA, Harvard, Vancouver, ISO, and other styles
4

Taddei, Tommaso. "Model order reduction methods for data assimilation : state estimation and structural health monitoring." Thesis, Massachusetts Institute of Technology, 2017. http://hdl.handle.net/1721.1/108942.

Full text
Abstract:
Thesis: Ph. D., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2017.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 243-258).
The objective of this thesis is to develop and analyze model order reduction approaches for the efficient integration of parametrized mathematical models and experimental measurements. Model Order Reduction (MOR) techniques for parameterized Partial Differential Equations (PDEs) offer new opportunities for the integration of models and experimental data. First, MOR techniques speed up computations allowing better explorations of the parameter space. Second, MOR provides actionable tools to compress our prior knowledge about the system coming from the parameterized best-knowledge model into low-dimensional and more manageable forms. In this thesis, we demonstrate how to take advantage of MOR to design computational methods for two classes of problems in data assimilation. In the first part of the thesis, we discuss and extend the Parametrized-Background Data-Weak (PBDW) approach for state estimation. PBDW combines a parameterized best knowledge mathematical model and experimental data to rapidly estimate the system state over the domain of interest using a small number of local measurements. The approach relies on projection-by-data, and exploits model reduction techniques to encode the knowledge of the parametrized model into a linear space appropriate for real-time evaluation. In this work, we extend the PBDW formulation in three ways. First, we develop an experimental a posteriori estimator for the error in the state. Second, we develop computational procedures to construct local approximation spaces in subregions of the computational domain in which the best-knowledge model is defined. Third, we present an adaptive strategy to handle experimental noise in the observations. We apply our approach to a companioni heat transfer experiment to prove the effectiveness of our technique. In the second part of the thesis, we present a model-order reduction approach to simulation based classification, with particular application to Structural Health Monitoring (SHM). The approach exploits (i) synthetic results obtained by repeated solution of a parametrized PDE for different values of the parameters, (ii) machine-learning algorithms to generate a classifier that monitors the state of damage of the system, and (iii) a reduced basis method to reduce the computational burden associated with the model evaluations. The approach is based on an offline/online computational decomposition. In the offline stage, the fields associated with many different system configurations, corresponding to different states of damage, are computed and then employed to teach a classifier. Model reduction techniques, ideal for this many-query context, are employed to reduce the computational burden associated with the parameter exploration. In the online stage, the classifier is used to associate measured data to the relevant diagnostic class. In developing our approach for SHM, we focus on two specific aspects. First, we develop a mathematical formulation which properly integrates the parameterized PDE model within the classification problem. Second, we present a sensitivity analysis to take into account the error in the model. We illustrate our method and we demonstrate its effectiveness through the vehicle of a particular companion experiment, a harmonically excited microtruss.
by Tommaso Taddei.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
5

Lauzeral, Nathan. "Reduced order and sparse representations for patient-specific modeling in computational surgery." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0062.

Full text
Abstract:
Cette thèse a pour but d’évaluer l'utilisation des méthodes de réduction de modèles fondées sur des approches parcimonieuses pour atteindre des performances en temps réel dans la cadre de la chirurgie computationnelle. Elle se concentre notamment sur l’intégration de la simulation biophysique dans des modèles personnalisés de tissus et d'organes afin d'augmenter les images médicales et ainsi éclairer le clinicien dans sa prise de décision. Dans ce contexte, trois enjeux fondamentaux sont mis en évidence. Le premier réside dans l'intégration de la paramétrisation de la forme au sein du modèle réduit afin de représenter fidèlement l'anatomie du patient. Une approche non intrusive reposant sur un échantillonnage parcimonieux de l'espace des caractéristiques anatomiques est introduite et validée. Ensuite, nous abordons le problème de la complétion des données et de la reconstruction des images à partir de données partielles ou incomplètes via des à priori physiques. Nous explorons le potentiel de la solution proposée dans le cadre du recalage d’images pour la réalité augmentée en laparoscopie. Des performances proches du temps réel sont obtenues grâce à une nouvelle approche d'hyper-réduction fondée sur une technique de représentation parcimonieuse. Enfin, le troisième défi concerne la propagation des incertitudes dans le cadre de systèmes biophysiques. Il est démontré que les approches de réduction de modèles traditionnelles ne réussissent pas toujours à produire une représentation de faible rang, et ce, en particulier dans le cas de la simulation électrochirurgicale. Une alternative est alors proposée via la métamodélisation. Pour ce faire, nous étendons avec succès l'utilisation de méthodes de régression parcimonieuses aux cas des systèmes à paramètres stochastiques
This thesis investigates the use of model order reduction methods based on sparsity-related techniques for the development of real-time biophysical modeling. In particular, it focuses on the embedding of interactive biophysical simulation into patient-specific models of tissues and organs to enhance medical images and assist the clinician in the process of informed decision making. In this context, three fundamental bottlenecks arise. The first lies in the embedding of the shape parametrization into the parametric reduced order model to faithfully represent the patient’s anatomy. A non-intrusive approach relying on a sparse sampling of the space of anatomical features is introduced and validated. Then, we tackle the problem of data completion and image reconstruction from partial or incomplete datasets based on physical priors. The proposed solution has the potential to perform scene registration in the context of augmented reality for laparoscopy. Quasi-real-time computations are reached by using a new hyperreduction approach based on a sparsity promoting technique. Finally, the third challenge concerns the representation of biophysical systems under uncertainty of the underlying parameters. It is shown that traditional model order reduction approaches are not always successful in producing a low dimensional representation of a model, in particular in the case of electrosurgery simulation. An alternative is proposed using a metamodeling approach. To this end, we successfully extend the use of sparse regression methods to the case of systems with stochastic parameters
APA, Harvard, Vancouver, ISO, and other styles
6

Akhtar, Sabina. "Vérification Formelle d'Algorithmes Distribués en PlusCal-2." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00815570.

Full text
Abstract:
La conception d'algorithmes pour les systèmes concurrents et répartis est subtile et difficile. Ces systèmes sont enclins à des blocages et à des conditions de course qui peuvent se produire dans des entrelacements particuliers d'actions de processus et sont par conséquent difficiles à reproduire. Il est souvent non-trivial d'énoncer précisément les propriétés attendues d'un algorithme et les hypothèses que l'environnement est supposé de satisfaire pour que l'algorithme se comporte correctement. La vérification formelle est une technique essentielle pour modéliser le système et ses propriétés et s'assurer de sa correction au moyen du model checking. Des langages formels tels TLA+ permettent de décrire des algorithmes compliqués de manière assez concise, mais les concepteurs d'algorithmes trouvent souvent difficile de modéliser un algorithme par un ensemble de formules. Dans ce mémoire nous présentons le langage PlusCal-2 qui vise à allier la simplicité de pseudo-code à la capacité d'être vérifié formellement. PlusCal-2 améliore le langage algorithmique PlusCal conçu par Lamport en levant certaines restrictions de ce langage et en y ajoutant de nouvelles constructions. Notre langage est destiné à la description d'algorithmes à un niveau élevé d'abstraction. Sa syntaxe ressemble à du pseudo-code mais il est tout à fait expressif et doté d'une sémantique formelle. Des instances finies d'algorithmes écrits en PlusCal-2 peuvent être vérifiées à l'aide du model checker tlc. La deuxième contribution de cette thèse porte sur l'étude de méthodes de réduction par ordre partiel à l'aide de relations de dépendance conditionnelle et constante. Pour calculer la dépendance conditionnelle pour les algorithmes en PlusCal-2 nous exploitons des informations sur la localité des actions et nous générons des prédicats d'indépendance. Nous proposons également une adaptation d'un algorithme de réduction par ordre partiel dynamique pour une variante du model checker tlc. Enfin, nous proposons une variante d'un algorithme de réduction par ordre partiel statique (comme alternative à l'algorithme dynamique), s'appuyant sur une relation de dépendance constante, et son implantation au sein de tlc. Nous présentons nos résultats expérimentaux et une preuve de correction.
APA, Harvard, Vancouver, ISO, and other styles
7

Koc, Birgul. "Numerical Analysis for Data-Driven Reduced Order Model Closures." Diss., Virginia Tech, 2021. http://hdl.handle.net/10919/103202.

Full text
Abstract:
This dissertation contains work that addresses both theoretical and numerical aspects of reduced order models (ROMs). In an under-resolved regime, the classical Galerkin reduced order model (G-ROM) fails to yield accurate approximations. Thus, we propose a new ROM, the data-driven variational multiscale ROM (DD-VMS-ROM) built by adding a closure term to the G-ROM, aiming to increase the numerical accuracy of the ROM approximation without decreasing the computational efficiency. The closure term is constructed based on the variational multiscale framework. To model the closure term, we use data-driven modeling. In other words, by using the available data, we find ROM operators that approximate the closure term. To present the closure term's effect on the ROMs, we numerically compare the DD-VMS-ROM with other standard ROMs. In numerical experiments, we show that the DD-VMS-ROM is significantly more accurate than the standard ROMs. Furthermore, to understand the closure term's physical role, we present a theoretical and numerical investigation of the closure term's role in long-time integration. We theoretically prove and numerically show that there is energy exchange from the most energetic modes to the least energetic modes in closure terms in a long time averaging. One of the promising contributions of this dissertation is providing the numerical analysis of the data-driven closure model, which has not been studied before. At both the theoretical and the numerical levels, we investigate what conditions guarantee that the small difference between the data-driven closure model and the full order model (FOM) closure term implies that the approximated solution is close to the FOM solution. In other words, we perform theoretical and numerical investigations to show that the data-driven model is verifiable. Apart from studying the ROM closure problem, we also investigate the setting in which the G-ROM converges optimality. We explore the ROM error bounds' optimality by considering the difference quotients (DQs). We theoretically prove and numerically illustrate that both the ROM projection error and the ROM error are suboptimal without the DQs, and optimal if the DQs are used.
Doctor of Philosophy
In many realistic applications, obtaining an accurate approximation to a given problem can require a tremendous number of degrees of freedom. Solving these large systems of equations can take days or even weeks on standard computational platforms. Thus, lower-dimensional models, i.e., reduced order models (ROMs), are often used instead. The ROMs are computationally efficient and accurate when the underlying system has dominant and recurrent spatial structures. Our contribution to reduced order modeling is adding a data-driven correction term, which carries important information and yields better ROM approximations. This dissertation's theoretical and numerical results show that the new ROM equipped with a closure term yields more accurate approximations than the standard ROM.
APA, Harvard, Vancouver, ISO, and other styles
8

Hammond, Janelle K. "Méthodes des bases réduites pour la modélisation de la qualité de l'air urbaine." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1230/document.

Full text
Abstract:
L'objectif principal de cette thèse est le développement d'outils numériques peu coûteux pour la cartographie de concentrations de polluants a partir de mesures et de modèles déterministes avancés. Le développement mondial et l'urbanisation des populations génèrent une hausse d’émissions et d'expositions. A n d'estimer les expositions individuelles et évaluer leur association à des pathologies diverses, les campagnes de mesure de qualité de l'air, et des études épidémiologiques sur les effets de santé de la pollution sont devenues plus courantes. Cependant, les concentrations de pollution de l'air sont très variables en temps et en espace. La sensibilité et la précision de ces études est souvent détériorée par de mauvais classements des expositions dus aux estimations grossières des expositions individuelles. Les méthodes d'assimilation de données intègrent des données de mesures et des modèles mathématiques a n de mieux approximer le champ de concentration. Quand ces méthodes sont basées sur un modèle de qualité de l'air (AQM) déterministe avancé, elles sont capables de fournir des approximations détaillées et de petite échelle. Ces informations précises permettront de meilleures estimations d'exposition. Néanmoins, ces méthodes sont souvent tr es coûteuses. Elles nécessitent la résolution a plusieurs reprises du modèle, qui peut être coûteux soi-même. Dans ce travail nous enquêtons sur la combinaison des méthodes des bases réduites (RB) et d'assimilation de données pour des AQM avancés a l'échelle urbaine. Nous souhaitons diminuer le coût de résolution en exploitant les RB, et incorporer des données de mesure a n d'améliorer la qualité de la solution. On étend la méthode de Parameterized-Background Data-Weak (PBDW) pour des AQMs basés sur la physique. Cette méthode est capable d'estimer de façon rapide et "online" des concentrations de polluants à l'échelle du quartier. Elle se sert des AQMs disponibles dans une procédure non intrusive et efficace par rapport aux temps de calculs pour réduire le coût de résolution par des centaines de fois. Les résultats de PBDW sont comparés à la méthode d'interpolation empirique généralisée (GEIM) et à une méthode inverse usuelle, la méthode adjointe, a n de mesurer l'efficacité de la PBDW. Cette comparaison montre la possibilité d'augmenter la précision de la solution, et d'une grande réduction en temps de calcul par rapport à des méthodes classiques. Dans nos applications sur un modèle imparfait, l'étude a fourni des estimations d'état avec erreur d'approximation de moins de 10% presque partout. Les résultats se montrent prometteurs pour la reconstruction en temps réel de champs de pollution sur de grands domaines par la PBDW
The principal objective of this thesis is the development of low-cost numerical tools for spatial mapping of pollutant concentrations from field observations and advanced deterministic models. With increased pollutant emissions and exposure due to mass urbanization and development worldwide, air quality measurement campaigns and epidemiology studies of the association between air pollution and adverse health effects have become increasingly common. However, as air pollution concentrations are highly variable spatially and temporally, the sensitivity and accuracy of these epidemiology studies is often deteriorated by exposure misclassi cation due to poor estimates of individual exposures. Data assimilation methods incorporate available measurement data and mathematical models to provide improved approximations of the concentration. These methods, when based on an advanced deterministic air quality models (AQMs), could provide spatially-rich small-scale approximations and can enable better estimates of effects and exposures. However, these methods can be computationally expensive. They require repeated solution of the model, which could itself be costly. In this work we investigate a combined reduced basis (RB) data assimilation method for use with advanced AQMs on urban scales. We want to diminish the cost of resolution, using RB arguments, and incorporate measurement data to improve the quality of the solution. We extend the Parameterized-Background Data-Weak (PBDW) method to physically-based AQMs. This method can rapidly estimate "online" pollutant concentrations at urban scale, using available AQMs in a non-intrusive and computationally effcient manner, reducing computation times by factors up to hundreds. We apply this method in case studies representing urban residential pollution of PM2.5, and we study the stability of the method depending on the placement or air quality sensors. Results from the PBDW are compared to the Generalized Empirical Interpolation Method (GEIM) and a standard inverse problem, the adjoint method, in order to measure effciency of the method. This comparison shows possible improvement in precision and great improvement in computation cost with respect to classical methods. We fi nd that the PBDW method shows promise for the real-time reconstruction of a pollution eld in large-scale problems, providing state estimation with approximation error generally under 10% when applied to an imperfect model
APA, Harvard, Vancouver, ISO, and other styles
9

Ulin, Samuel. "Digging deep : A data-driven approach to model reduction in a granular bulldozing scenario." Thesis, Umeå universitet, Institutionen för fysik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-152498.

Full text
Abstract:
The current simulation method for granular dynamics used by the physics engine AGX Dynamics is a nonsmooth variant of the popular Discrete Element Method (DEM). While powerful, there is a need for close to real time simulations of a higher spatial resolution than currently possible. In this thesis a data-driven model reduction approach using machine learning was considered. A data-driven simulation pipeline was presented and partially implemented. The method consists of sampling the velocity and density field of the granular particles and teaching a machine learning algorithm to predict the particles' interaction with a bulldozer blade as well as predicting the time evolution of its velocity field. A procedure for producing training scenarios and training data for the machine learning algorithm was implemented as well as several machine learning algorithms; a linear regressor, a multilayer perceptron and a convolutional neural network. The results showed that the method is promising, however further work will need to show whether or not the pipeline is feasible to implement in a simulation.
APA, Harvard, Vancouver, ISO, and other styles
10

Savas, Berkant. "Algorithms in data mining using matrix and tensor methods." Doctoral thesis, Linköpings universitet, Beräkningsvetenskap, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-11597.

Full text
Abstract:
In many fields of science, engineering, and economics large amounts of data are stored and there is a need to analyze these data in order to extract information for various purposes. Data mining is a general concept involving different tools for performing this kind of analysis. The development of mathematical models and efficient algorithms is of key importance. In this thesis we discuss algorithms for the reduced rank regression problem and algorithms for the computation of the best multilinear rank approximation of tensors. The first two papers deal with the reduced rank regression problem, which is encountered in the field of state-space subspace system identification. More specifically the problem is \[ \min_{\rank(X) = k} \det (B - X A)(B - X A)\tp, \] where $A$ and $B$ are given matrices and we want to find $X$ under a certain rank condition that minimizes the determinant. This problem is not properly stated since it involves implicit assumptions on $A$ and $B$ so that $(B - X A)(B - X A)\tp$ is never singular. This deficiency of the determinant criterion is fixed by generalizing the minimization criterion to rank reduction and volume minimization of the objective matrix. The volume of a matrix is defined as the product of its nonzero singular values. We give an algorithm that solves the generalized problem and identify properties of the input and output signals causing a singular objective matrix. Classification problems occur in many applications. The task is to determine the label or class of an unknown object. The third paper concerns with classification of handwritten digits in the context of tensors or multidimensional data arrays. Tensor and multilinear algebra is an area that attracts more and more attention because of the multidimensional structure of the collected data in various applications. Two classification algorithms are given based on the higher order singular value decomposition (HOSVD). The main algorithm makes a data reduction using HOSVD of 98--99 \% prior the construction of the class models. The models are computed as a set of orthonormal bases spanning the dominant subspaces for the different classes. An unknown digit is expressed as a linear combination of the basis vectors. The resulting algorithm achieves 5\% in classification error with fairly low amount of computations. The remaining two papers discuss computational methods for the best multilinear rank approximation problem \[ \min_{\cB} \| \cA - \cB\| \] where $\cA$ is a given tensor and we seek the best low multilinear rank approximation tensor $\cB$. This is a generalization of the best low rank matrix approximation problem. It is well known that for matrices the solution is given by truncating the singular values in the singular value decomposition (SVD) of the matrix. But for tensors in general the truncated HOSVD does not give an optimal approximation. For example, a third order tensor $\cB \in \RR^{I \x J \x K}$ with rank$(\cB) = (r_1,r_2,r_3)$ can be written as the product \[ \cB = \tml{X,Y,Z}{\cC}, \qquad b_{ijk}=\sum_{\lambda,\mu,\nu} x_{i\lambda} y_{j\mu} z_{k\nu} c_{\lambda\mu\nu}, \] where $\cC \in \RR^{r_1 \x r_2 \x r_3}$ and $X \in \RR^{I \times r_1}$, $Y \in \RR^{J \times r_2}$, and $Z \in \RR^{K \times r_3}$ are matrices of full column rank. Since it is no restriction to assume that $X$, $Y$, and $Z$ have orthonormal columns and due to these constraints, the approximation problem can be considered as a nonlinear optimization problem defined on a product of Grassmann manifolds. We introduce novel techniques for multilinear algebraic manipulations enabling means for theoretical analysis and algorithmic implementation. These techniques are used to solve the approximation problem using Newton and Quasi-Newton methods specifically adapted to operate on products of Grassmann manifolds. The presented algorithms are suited for small, large and sparse problems and, when applied on difficult problems, they clearly outperform alternating least squares methods, which are standard in the field.
APA, Harvard, Vancouver, ISO, and other styles
11

Wang, Jianxun. "Physics-Informed, Data-Driven Framework for Model-Form Uncertainty Estimation and Reduction in RANS Simulations." Diss., Virginia Tech, 2017. http://hdl.handle.net/10919/77035.

Full text
Abstract:
Computational fluid dynamics (CFD) has been widely used to simulate turbulent flows. Although an increased availability of computational resources has enabled high-fidelity simulations (e.g. large eddy simulation and direct numerical simulation) of turbulent flows, the Reynolds-Averaged Navier-Stokes (RANS) equations based models are still the dominant tools for industrial applications. However, the predictive capability of RANS models is limited by potential inaccuracies driven by hypotheses in the Reynolds stress closure. With the ever-increasing use of RANS simulations in mission-critical applications, the estimation and reduction of model-form uncertainties in RANS models have attracted attention in the turbulence modeling community. In this work, I focus on estimating uncertainties stemming from the RANS turbulence closure and calibrating discrepancies in the modeled Reynolds stresses to improve the predictive capability of RANS models. Both on-line and off-line data are utilized to achieve this goal. The main contributions of this dissertation can be summarized as follows: First, a physics-based, data-driven Bayesian framework is developed for estimating and reducing model-form uncertainties in RANS simulations. An iterative ensemble Kalman method is employed to assimilate sparse on-line measurement data and empirical prior knowledge for a full-field inversion. The merits of incorporating prior knowledge and physical constraints in calibrating RANS model discrepancies are demonstrated and discussed. Second, a random matrix theoretic framework is proposed for estimating model-form uncertainties in RANS simulations. Maximum entropy principle is employed to identify the probability distribution that satisfies given constraints but without introducing artificial information. Objective prior perturbations of RANS-predicted Reynolds stresses in physical projections are provided based on comparisons between physics-based and random matrix theoretic approaches. Finally, a physics-informed, machine learning framework towards predictive RANS turbulence modeling is proposed. The functional forms of model discrepancies with respect to mean flow features are extracted from the off-line database of closely related flows based on machine learning algorithms. The RANS-modeled Reynolds stresses of prediction flows can be significantly improved by the trained discrepancy function, which is an important step towards the predictive turbulence modeling.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
12

Grimm, Alexander Rudolf. "Parametric Dynamical Systems: Transient Analysis and Data Driven Modeling." Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/83840.

Full text
Abstract:
Dynamical systems are a commonly used and studied tool for simulation, optimization and design. In many applications such as inverse problem, optimal control, shape optimization and uncertainty quantification, those systems typically depend on a parameter. The need for high fidelity in the modeling stage leads to large-scale parametric dynamical systems. Since these models need to be simulated for a variety of parameter values, the computational burden they incur becomes increasingly difficult. To address these issues, parametric reduced models have encountered increased popularity in recent years. We are interested in constructing parametric reduced models that represent the full-order system accurately over a range of parameters. First, we define a global joint error mea- sure in the frequency and parameter domain to assess the accuracy of the reduced model. Then, by assuming a rational form for the reduced model with poles both in the frequency and parameter domain, we derive necessary conditions for an optimal parametric reduced model in this joint error measure. Similar to the nonparametric case, Hermite interpolation conditions at the reflected images of the poles characterize the optimal parametric approxi- mant. This result extends the well-known interpolatory H2 optimality conditions by Meier and Luenberger to the parametric case. We also develop a numerical algorithm to construct locally optimal reduced models. The theory and algorithm are data-driven, in the sense that only function evaluations of the parametric transfer function are required, not access to the internal dynamics of the full model. While this first framework operates on the continuous function level, assuming repeated transfer function evaluations are available, in some cases merely frequency samples might be given without an option to re-evaluate the transfer function at desired points; in other words, the function samples in parameter and frequency are fixed. In this case, we construct a parametric reduced model that minimizes a discretized least-squares error in the finite set of measurements. Towards this goal, we extend Vector Fitting (VF) to the parametric case, solving a global least-squares problem in both frequency and parameter. The output of this approach might lead to a moderate size reduced model. In this case, we perform a post- processing step to reduce the output of the parametric VF approach using H2 optimal model reduction for a special parametrization. The final model inherits the parametric dependence of the intermediate model, but is of smaller order. A special case of a parameter in a dynamical system is a delay in the model equation, e.g., arising from a feedback loop, reaction time, delayed response and various other physical phenomena. Modeling such a delay comes with several challenges for the mathematical formulation, analysis, and solution. We address the issue of transient behavior for scalar delay equations. Besides the choice of an appropriate measure, we analyze the impact of the coefficients of the delay equation on the finite time growth, which can be arbitrary large purely by the influence of the delay.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
13

Fahlaoui, Tarik. "Réduction de modèles et apprentissage de solutions spatio-temporelles paramétrées à partir de données : application à des couplages EDP-EDO." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2535.

Full text
Abstract:
On s’intéresse dans cette thèse à l’apprentissage d’un modèle réduit précis et stable, à partir de données correspondant à la solution d’une équation aux dérivées partielles (EDP), et générées par un solveur haute fidélité (HF). Pour ce faire, on utilise la méthode Dynamic Mode Decomposition (DMD) ainsi que la méthode de réduction Proper Orthogonal Decomposition (POD). Le modèle réduit appris est facilement interprétable, et par une analyse spectrale a posteriori de ce modèle on peut détecter les anomalies lors de la phase d’apprentissage. Les extensions au cas de couplage EDP-EDO, ainsi qu’au cas d’EDP d’ordre deux en temps sont présentées. L’apprentissage d’un modèle réduit dans le cas d’un système dynamique contrôlé par commutation, où la règle de contrôle est apprise à l’aide d’un réseau de neurones artificiel (ANN), est également traité. Un inconvénient de la réduction POD, est la difficile interprétation de la représentation basse dimension. On proposera alors l’utilisation de la méthode Empirical Interpolation Method (EIM). La représentation basse dimension est alors intelligible, et consiste en une restriction de la solution en des points sélectionnés. Cette approche sera ensuite étendue au cas d’EDP dépendant d’un paramètre, et où l’algorithme Kernel Ridge Regression (KRR) nous permettra d’apprendre la variété solution. Ainsi, on présentera l’apprentissage d’un modèle réduit paramétré. L’extension au cas de données bruitées ou bien au cas d’EDP d’évolution non linéaire est présentée en ouverture
In this thesis, an algorithm for learning an accurate reduced order model from data generated by a high fidelity solver (HF solver) is proposed. To achieve this goal, we use both Dynamic Mode Decomposition (DMD) and Proper Orthogonal Decomposition (POD). Anomaly detection, during the learning process, can be easily done by performing an a posteriori spectral analysis on the reduced order model learnt. Several extensions are presented to make the method as general as possible. Thus, we handle the case of coupled ODE/PDE systems or the case of second order hyperbolic equations. The method is also extended to the case of switched control systems, where the switching rule is learnt by using an Artificial Neural Network (ANN). The reduced order model learnt allows to predict time evolution of the POD coefficients. However, the POD coefficients have no interpretable meaning. To tackle this issue, we propose an interpretable reduction method using the Empirical Interpolation Method (EIM). This reduction method is then adapted to the case of third-order tensors, and combining with the Kernel Ridge Regression (KRR) we can learn the solution manifold in the case of parametrized PDEs. In this way, we can learn a parametrized reduced order model. The case of non-linear PDEs or disturbed data is finally presented in the opening
APA, Harvard, Vancouver, ISO, and other styles
14

Boubehziz, Toufik. "Simulation en quasi temps réel d’une capsule sous écoulement grâce à des Modèles d’Ordre Réduit." Thesis, Compiègne, 2022. http://www.theses.fr/2022COMP2678.

Full text
Abstract:
La déformation d’une capsule en écoulement dans un canal micro-fluidique est un problème compliqué à simuler numériquement. Nous proposons deux modèles innovants de pilotage de données d’ordre réduit pour simuler le problème spatio-temporel à partir d’une base de données collectée des simulations réalisées avec un modèle d’ordre élevé. L’objectif est de remplacer le modèle numérique haute-fidélité existant par un modèle d’ordre réduit capable de simuler l’évolution de déformation des capsules en écoulement à faible cout en temps et en calcul. Le premier modèle consiste à construire à partir d’un cube de données espace-temps-paramètre un modèle réduit pour simuler la déformation de la microcapsule pour n’importe quelle configuration admissible de paramètres. La prédiction de l’évolution temporelle de la capsule pour une configuration donnée de paramètres et un pas de discrétisation temporelle choisi se fait à l’aide d’un apprentissage sur des variétés du modèle réduit. Le deuxième modèle se base sur l’idée de réécrire le problème sous forme d’un système dynamique d’ordre réduit dans lequel les coefficients spectraux des déplacements et les champs des vitesses sont relies à travers d’un opérateur dynamique à identifier. Pour déterminer ce dernier, nous suggérons l’utilisation d’une approche de décomposition en modes dynamiques. Des validations numériques confirment la fiabilité et stabilité des deux nouveaux modèles par rapport au modèle d’ordre élevé. Une application informatique est également mise au point afin d’explorer l’évolution de déformation des capsules pour toute configuration de paramètres admissibles
The motion of a liquid-filled microcapsule flowing in a microchannel is a complex problem tosimulate. Two innovative reduced-order data-driven models are proposed to replace the Fluid Structure Interaction (FSI) model using a collected database from high-fidelity simulations. The objective is to replace the existing Full Order Model (FOM) with a fast-simulation model that can simulate the capsule deformation in flow at a low cost in terms of time and calculation. The first model consists in building from a space-time-parameter datacube a reduced model to simulate the deformation of the microcapsule for any admissible configuration of parameters. Time evolution of the capsule deformation is treated by identifying the nonlinear low-order manifold of the reduced variables. Then, manifold learning is applied using the Diffuse Approximation (DA) method to predict capsule deformation for a query configuration of parameters and a chosen time discretization. The second model is based on rewriting the FSI model under the form of a reduced-order dynamic system. In this latter, the spectral displacement and velocity coefficients are related through a dynamic operator to be identified. To determine this operator, we suggest the use of a dynamic mode decomposition approach. Numerical validations prove the reliability and stability of the two new models compared to the high order model. A software application has been developed to explore the capsule deformation evolution for any couple of admissible parameters
APA, Harvard, Vancouver, ISO, and other styles
15

Xie, Xuping. "Large Eddy Simulation Reduced Order Models." Diss., Virginia Tech, 2017. http://hdl.handle.net/10919/77626.

Full text
Abstract:
This dissertation uses spatial filtering to develop a large eddy simulation reduced order model (LES-ROM) framework for fluid flows. Proper orthogonal decomposition is utilized to extract the dominant spatial structures of the system. Within the general LES-ROM framework, two approaches are proposed to address the celebrated ROM closure problem. No phenomenological arguments (e.g., of eddy viscosity type) are used to develop these new ROM closure models. The first novel model is the approximate deconvolution ROM (AD-ROM), which uses methods from image processing and inverse problems to solve the ROM closure problem. The AD-ROM is investigated in the numerical simulation of a 3D flow past a circular cylinder at a Reynolds number $Re=1000$. The AD-ROM generates accurate results without any numerical dissipation mechanism. It also decreases the CPU time of the standard ROM by orders of magnitude. The second new model is the calibrated-filtered ROM (CF-ROM), which is a data-driven ROM. The available full order model results are used offline in an optimization problem to calibrate the ROM subfilter-scale stress tensor. The resulting CF-ROM is tested numerically in the simulation of the 1D Burgers equation with a small diffusion parameter. The numerical results show that the CF-ROM is more efficient than and as accurate as state-of-the-art ROM closure models.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
16

Zavar, Moosavi Azam Sadat. "Probabilistic and Statistical Learning Models for Error Modeling and Uncertainty Quantification." Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/82491.

Full text
Abstract:
Simulations and modeling of large-scale systems are vital to understanding real world phenomena. However, even advanced numerical models can only approximate the true physics. The discrepancy between model results and nature can be attributed to different sources of uncertainty including the parameters of the model, input data, or some missing physics that is not included in the model due to a lack of knowledge or high computational costs. Uncertainty reduction approaches seek to improve the model accuracy by decreasing the overall uncertainties in models. Aiming to contribute to this area, this study explores uncertainty quantification and reduction approaches for complex physical problems. This study proposes several novel probabilistic and statistical approaches for identifying the sources of uncertainty, modeling the errors, and reducing uncertainty to improve the model predictions for large-scale simulations. We explore different computational models. The first class of models studied herein are inherently stochastic, and numerical approximations suffer from stability and accuracy issues. The second class of models are partial differential equations, which capture the laws of mathematical physics; however, they only approximate a more complex reality, and have uncertainties due to missing dynamics which is not captured by the models. The third class are low-fidelity models, which are fast approximations of very expensive high-fidelity models. The reduced-order models have uncertainty due to loss of information in the dimension reduction process. We also consider uncertainty analysis in the data assimilation framework, specifically for ensemble based methods where the effect of sampling errors is alleviated by localization. Finally, we study the uncertainty in numerical weather prediction models coming from approximate descriptions of physical processes.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
17

Lestandi, Lucas. "Approximations de rang faible et modèles d'ordre réduit appliqués à quelques problèmes de la mécanique des fluides." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0186/document.

Full text
Abstract:
Les dernières décennies ont donné lieux à d'énormes progrès dans la simulation numérique des phénomènes physiques. D'une part grâce au raffinement des méthodes de discrétisation des équations aux dérivées partielles. Et d'autre part grâce à l'explosion de la puissance de calcul disponible. Pourtant, de nombreux problèmes soulevés en ingénierie tels que les simulations multi-physiques, les problèmes d'optimisation et de contrôle restent souvent hors de portée. Le dénominateur commun de ces problèmes est le fléau des dimensions. Un simple problème tridimensionnel requiert des centaines de millions de points de discrétisation auxquels il faut souvent ajouter des milliers de pas de temps pour capturer des dynamiques complexes. L'avènement des supercalculateurs permet de générer des simulations de plus en plus fines au prix de données gigantesques qui sont régulièrement de l'ordre du pétaoctet. Malgré tout, cela n'autorise pas une résolution ``exacte'' des problèmes requérant l'utilisation de plusieurs paramètres. L'une des voies envisagées pour résoudre ces difficultés est de proposer des représentations ne souffrant plus du fléau de la dimension. Ces représentations que l'on appelle séparées sont en fait un changement de paradigme. Elles vont convertir des objets tensoriels dont la croissance est exponentielle $n^d$ en fonction du nombre de dimensions $d$ en une représentation approchée dont la taille est linéaire en $d$. Pour le traitement des données tensorielles, une vaste littérature a émergé ces dernières années dans le domaine des mathématiques appliquées.Afin de faciliter leurs utilisations dans la communauté des mécaniciens et en particulier pour la simulation en mécanique des fluides, ce manuscrit présente dans un vocabulaire rigoureux mais accessible les formats de représentation des tenseurs et propose une étude détaillée des algorithmes de décomposition de données qui y sont associées. L'accent est porté sur l'utilisation de ces méthodes, aussi la bibliothèque de calcul texttt{pydecomp} développée est utilisée pour comparer l'efficacité de ces méthodes sur un ensemble de cas qui se veut représentatif. La seconde partie de ce manuscrit met en avant l'étude de l'écoulement dans une cavité entraînée à haut nombre de Reynolds. Cet écoulement propose une physique très riche (séquence de bifurcation de Hopf) qui doit être étudiée en amont de la construction de modèle réduit. Cette étude est enrichie par l'utilisation de la décomposition orthogonale aux valeurs propres (POD). Enfin une approche de construction ``physique'', qui diffère notablement des développements récents pour les modèles d'ordre réduit, est proposée. La connaissance détaillée de l'écoulement permet de construire un modèle réduit simple basé sur la mise à l'échelle des fréquences d'oscillation (time-scaling) et des techniques d'interpolation classiques (Lagrange,..)
Numerical simulation has experienced tremendous improvements in the last decadesdriven by massive growth of computing power. Exascale computing has beenachieved this year and will allow solving ever more complex problems. But suchlarge systems produce colossal amounts of data which leads to its own difficulties.Moreover, many engineering problems such as multiphysics or optimisation andcontrol, require far more power that any computer architecture could achievewithin the current scientific computing paradigm. In this thesis, we proposeto shift the paradigm in order to break the curse of dimensionality byintroducing decomposition and building reduced order models (ROM) for complexfluid flows.This manuscript is organized into two parts. The first one proposes an extendedreview of data reduction techniques and intends to bridge between appliedmathematics community and the computational mechanics one. Thus, foundingbivariate separation is studied, including discussions on the equivalence ofproper orthogonal decomposition (POD, continuous framework) and singular valuedecomposition (SVD, discrete matrices). Then a wide review of tensor formats andtheir approximation is proposed. Such work has already been provided in theliterature but either on separate papers or into a purely applied mathematicsframework. Here, we offer to the data enthusiast scientist a comparison ofCanonical, Tucker, Hierarchical and Tensor train formats including theirapproximation algorithms. Their relative benefits are studied both theoreticallyand numerically thanks to the python library texttt{pydecomp} that wasdeveloped during this thesis. A careful analysis of the link between continuousand discrete methods is performed. Finally, we conclude that for mostapplications ST-HOSVD is best when the number of dimensions $d$ lower than fourand TT-SVD (or their POD equivalent) when $d$ grows larger.The second part is centered on a complex fluid dynamics flow, in particular thesingular lid driven cavity at high Reynolds number. This flow exhibits a seriesof Hopf bifurcation which are known to be hard to capture accurately which iswhy a detailed analysis was performed both with classical tools and POD. Oncethis flow has been characterized, emph{time-scaling}, a new ``physics based''interpolation ROM is presented on internal and external flows. This methodsgives encouraging results while excluding recent advanced developments in thearea such as EIM or Grassmann manifold interpolation
APA, Harvard, Vancouver, ISO, and other styles
18

Gstalter, Étienne. "Réduction d’ordre de modèle de crash automobile pour l’optimisation masse / prestations." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2576.

Full text
Abstract:
Cette thèse est une contribution à un thème de recherche sur les applications de la réduction de modèle à l’ingénierie RENAULT. Elle fait suite aux travaux du projet IRT SystemX ROM (Réduction de modèles et Optimisation Multidisciplinaire) et aux thèses CIFRE RENAULT [Vuong], [Charrier]. L’application industrielle principale du thème est la mise au point de la structure d’un véhicule sollicité en crash; des travaux sont également en cours sur la combustion, l’acoustique et l’aérodynamique. Les travaux de cette thèse sont à la fois un apport à la méthode générique ReCUR et son adaptation à l’optimisation de la caisse d’un véhicule pour le crash. RENAULT utilise largement l’optimisation pour la mise au point de la caisse en crash, avec un outil d’optimisation numérique basé sur la méthode des plans d’expériences. Cette méthode nécessite beaucoup de calculs crash car cette simulation est considérée comme une boite noire, en utilisant uniquement les entrées et sorties. La méthode ReCUR prend le contre-pied en exploitant un maximum d’informations de chaque simulation crash, dans le but de réduire fortement leur nombre. Les travaux de cette thèse ont permis de remplir cet objectif pour les applications de mise au point au nominal et pour l’optimisation robuste dans des cas complexes comme le choc frontal et arrière
This thesis is a part of a global research work dedicated to reduced-order modelling applications in the Renault engineering direction. It's research topic has been improved in the IRT System)('s project on Reduced Order Model and Multi-disciplinary Optimization. Some previous thesis can help understand the context. ([Vuong], [Charrier]). The main industrial application of the research theme is the focus on a body structure, in a crash loading. Some research works on acoustic, combustion and aerodynamic are currently ongoing. This thesis is both a contribution to the generic ReCUR method, and its application to a car body structure optimization for crash loadings. Engineering teams at Renault uses optimization to obtain the best crash simulation, with a numerical optimization software, based on designs of experiments. It requires a lot of crash simulation because each simulation is considered as unique, with only one response for each parameter. Only Inputs and Outputs are known. The ReCUR method consider that each simulation is a huge mine that needs our attention. We hope that we can decrease the number of crash simulation required to compute a model, by using much more data for each simulation
APA, Harvard, Vancouver, ISO, and other styles
19

Li, He. "Second-order Least Squares Estimation in Generalized Linear Mixed Models." 2011. http://hdl.handle.net/1993/4446.

Full text
Abstract:
Maximum likelihood is an ubiquitous method used in the estimation of generalized linear mixed model (GLMM). However, the method entails computational difficulties and relies on the normality assumption for random effects. We propose a second-order least squares (SLS) estimator based on the first two marginal moments of the response variables. The proposed estimator is computationally feasible and requires less distributional assumptions than the maximum likelihood estimator. To overcome the numerical difficulties of minimizing an objective function that involves multiple integrals, a simulation-based SLS estimator is proposed. We show that the SLS estimators are consistent and asymptotically normally distributed under fairly general conditions in the framework of GLMM. Missing data is almost inevitable in longitudinal studies. Problems arise if the missing data mechanism is related to the response process. This thesis develops the proposed estimators to deal with response data missing at random by either adapting the inverse probability weight method or applying the multiple imputation approach. In practice, some of the covariates are not directly observed but are measured with error. It is well-known that simply substituting a proxy variable for the unobserved covariate in the model will generally lead to biased and inconsistent estimates. We propose the instrumental variable method for the consistent estimation of GLMM with covariate measurement error. The proposed approach does not need any parametric assumption on the distribution of the unknown covariates. This makes the method less restrictive than other methods that rely on either a parametric distribution of the covariates, or to estimate the distribution using some extra information. In the presence of data outliers, it is a concern that the SLS estimators may be vulnerable due to the second-order moments. We investigated the robustness property of the SLS estimators using their influence functions. We showed that the proposed estimators have a bounded influence function and a redescending property so they are robust to outliers. The finite sample performance and property of the SLS estimators are studied and compared with other popular estimators in the literature through simulation studies and real world data examples.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography