Dissertations / Theses on the topic 'Erreur inverse'

To see the other types of publications on this topic, follow the link: Erreur inverse.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Erreur inverse.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fu, Shuai. "Inverse problems occurring in uncertainty analysis." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112208/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique
This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study
2

Beuzeville, Theo. "Analyse inverse des erreurs des réseaux de neurones artificiels avec applications aux calculs en virgule flottante et aux attaques adverses." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation d'intelligences artificielles, dont les implémentations reposent souvent sur des réseaux de neurones artificiels, se démocratise maintenant dans une grande variété de tâches. En effet, ces modèles d'apprentissage profond produisent des résultats bien meilleurs que de nombreux algorithmes spécialisés précédemment utilisés et sont donc amenés à être déployés à grande échelle.C'est dans ce contexte de développement très rapide que des problématiques liées au stockage de ces modèles émergent, car ils sont parfois très profonds et comprennent donc jusqu'à des milliards de paramètres, ainsi que des problématiques liées à leurs performances en termes de calcul tant d'un point de vue de précision que de coût en temps et en énergie. Pour toutes ces raisons, l'utilisation de précision réduite est de plus en plus indispensable.D'autre part, il a été noté que les réseaux de neurones souffrent d'un manque d'interprétabilité, étant donné qu'ils sont souvent des modèles très profonds, entraînés sur de vastes quantités de données. Par conséquent, ils sont très sensibles aux perturbations qui peuvent toucher les données qu'ils traitent. Les attaques adverses en sont un exemple ; ces perturbations, souvent imperceptibles à l'œil humain, sont conçues pour tromper un réseau de neurones, le faisant échouer dans le traitement de ce qu'on appelle un exemple adverse. Le but de cette thèse est donc de fournir des outils pour mieux comprendre, expliquer et prédire la sensibilité des réseaux de neurones artificiels à divers types de perturbations. À cette fin, nous avons d'abord étendu à des réseaux de neurones artificiels certains concepts bien connus de l'algèbre linéaire numérique, tels que le conditionnement et l'erreur inverse. Nous avons donc établi des formules explicites permettant de calculer ces quantités et trouvé des moyens de les calculer lorsque nous ne pouvions pas obtenir de formule. Ces quantités permettent de mieux comprendre l'impact des perturbations sur une fonction mathématique ou un système, selon les variables qui sont perturbées ou non.Nous avons ensuite utilisé cette analyse d'erreur inverse pour démontrer comment étendre le principe des attaques adverses au cas où, non seulement les données traitées par les réseaux sont perturbées, mais également leurs propres paramètres. Cela offre une nouvelle perspective sur la robustesse des réseaux neuronaux et permet, par exemple, de mieux contrôler la quantification des paramètres pour ensuite réduire la précision arithmétique utilisée et donc faciliter leur stockage. Nous avons ensuite amélioré cette approche, obtenue par l'analyse d'erreur inverse, pour développer des attaques sur les données des réseaux comparables à l'état de l'art. Enfin, nous avons étendu les approches d'analyse d'erreurs d'arrondi, qui jusqu'à présent avaient été abordées d'un point de vue pratique ou vérifiées par des logiciels, dans les réseaux de neurones en fournissant une analyse théorique basée sur des travaux existants en algèbre linéaire numérique. Cette analyse permet d'obtenir des bornes sur les erreurs directes et inverses lors de l'utilisation d'arithmétiques flottantes. Ces bornes permettent à la fois d'assurer le bon fonctionnement des réseaux de neurones une fois entraînés, mais également de formuler des recommandations concernant les architectures et les méthodes d'entraînement afin d'améliorer la robustesse des réseaux de neurones
The use of artificial intelligence, whose implementations are often based on artificial neural networks, is now becoming widespread across a wide variety of tasks. These deep learning models indeed yield much better results than many specialized algorithms previously used and are therefore being deployed on a large scale.It is in this context of very rapid development that issues related to the storage of these models emerge, since they are sometimes very deep and therefore comprise up to billions of parameters, as well as issues related to their computational performance, both in terms of accuracy and time- and energy-related costs. For all these reasons, the use of reduced precision is increasingly being considered.On the other hand, it has been noted that neural networks suffer from a lack of interpretability, given that they are often very deep models trained on vast amounts of data. Consequently, they are highly sensitive to small perturbations in the data they process. Adversarial attacks are an example of this; since these are perturbations often imperceptible to the human eye, constructed to deceive a neural network, causing it to fail in processing the so-called adversarial example.The aim of this thesis is therefore to provide tools to better understand, explain, and predict the sensitivity of artificial neural networks to various types of perturbations.To this end, we first extended to artificial neural networks some well-known concepts from numerical linear algebra, such as condition number and backward error. These quantities allow to better understand the impact of perturbations on a mathematical function or system, depending on which variables are perturbed or not.We then use this backward error analysis to demonstrate how to extend the principle of adversarial attacks to the case where not only the data processed by the networks is perturbed but also their own parameters. This provides a new perspective on neural networks' robustness and allows, for example, to better control quantization to reduce the precision of their storage. We then improved this approach, obtained through backward error analysis, to develop attacks on network input comparable to state-of-the-art methods.Finally, we extended approaches of round-off error analysis, which until now had been approached from a practical standpoint or verified by software, in neural networks by providing a theoretical analysis based on existing work in numerical linear algebra.This analysis allows for obtaining bounds on forward and backward errors when using floating-point arithmetic. These bounds both ensure the proper functioning of neural networks once trained, and provide recommendations on architectures and training methods to enhance the robustness of neural networks
3

Huang, Shaojuan. "Multi-scale identification of composite materials." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2244/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les matériaux composites sont de plus en plus importants dans la communauté de l’industrie. Pour l’identification du comportement mécanique anisotrope et hétérogène de certains composite, les mesures de champs cinématiques sont répandues dans la communauté mécanique, parce qu’elles offrent de riches informations en déplacement ou déformation permettant d’exploiter des essais hétérogènes. Dans les dernières années, certaines identifications inverses spécifiques ont été proposées, mais certains de ces méthodes ne considèrent le problème d’identification que sur la zone de mesure ou ont généralement besoin de conditions limites pour être mises en œuvre. Cependant, mener l’identification sur l’ensemble de l’éprouvette (au-delà de la zone de mesure) offre la possibilité de tenir compte d’information de conditions limites supplémentaire, même si dans le même temps, cela amène à traiter d’autres bords sous conditions limites. L’Erreur en Relation de Comportement Modifiée (ERC-M) permet de traiter ce type de cas en prenant en compte l’ensemble des informations disponibles d’un point de vue théorique et expérimental sans hypothèse supplémentaire. Pour l’identification des propriétés élastiques, une première stratégie mono-échelle a été proposée et permet effectivement de traiter les différents types de conditions limites ainsi que leur absence. Pour un matériau hétérogène, les mesures ne sont pas assez riches pour permettre l’identification des propriétés élastiques hétérogènes en dehors de la zone de mesure. Une approche multi-échelle est donc proposée permettant de tenir compte de toute l’éprouvette, dans laquelle des propriétés micros hétérogènes sont recherchées sur la zone de mesure et des propriétés macros homogènes sur l’ensemble du domaine
Composite materials are more and more important in the industry community. For the identification of the heterogeneous and anisotropic mechanical behavior of some composite, the full-field measurements are widespread in the mechanics community, because they can offer a very rich information of displacement or strain to exploit heterogeneous tests. During last thirty years, some specific inverse identification strategies have been proposed but most of these methods consider the identification problem only on the measured area and would usually need boundary conditions to be performed. However, the boundary conditions are not always completely known and might not be on the measurement zone. There is hence a need of identification methods allowing both the identification over the whole specimen and the dealing of missing boundary conditions. The Modified Constitutive Relation Error (M-CRE) allows dealing with such situations through the taking into account of the whole available information from a theoretical and experimental point of view without additional assumption. For the identification of elastic properties, a first mono-scale strategy has been proposed and actually used to process different types of boundary conditions as well as their absence. Considering the identification of heterogeneous elastic properties, the lack of information outside the measurement zone prevents from identifying heterogeneous properties in this area. It leads us to propose a multi-scale approach where micro heterogeneous properties are sought at the measurement level and macro homogeneous ones at the specimen level
4

Barbarella, Elena. "Towards the localization and characterization of defects based on the Modified error in Constitutive Relation : focus on the buckling test and comparison with other type of experiments." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des nombreuses industries composites cherchent à étendre le champ d'application des composites structuraux à fibres continues pour d'autre marché que l'aéronautique. Être compétitif sur ces marchés potentiels, tel l'automobile, implique de se conformer à des contraintes différentes; de coût, de temps de mise en œuvre, de trace écologique. Dans ce cadre les résines thermodurcissables sont remplacées par des résines thermoplastiques permettant des temps de cycle cours. Ces temps de cycle cours favorisent l'apparition de défauts potentiellement important et une question récurrente dans ce cadre est: Comment traiter des défauts? Un des aspects de cette question est celui de la détection et de la caractérisation des défauts. L'approche actuelle est celle des techniques non destructives. Celles ci sont longues, coûteuses et complexes et apparaissent donc mal adaptées aux contraintes de coûts et de temps caractéristique de la plupart des produits grands diffusions. Ce problème a motivé ce travail de thèse: est-il possible de détecter et d'estimer l'effet des défauts sans avoir recours à des techniques d'essais non destructifs complexes et coûteuses? Une réponse acceptable pourrait conduire à moins de précision, mais devrait fournir des informations quantitatives suffisantes pour les applications. La voie étudiée dans cette thèse est celle de l'exploitation par approches inverse d'essais mécaniques statiques suivis par mesure de champs par corrélation d'images numériques. Seuls la localisation et la caractérisation de grands défauts est visée. Des essais de flambement ont été choisis en raison de leur sensibilité supposée aux défauts. Parmi les approches inverses, nous nous sommes concentrés sur la méthode de l'erreur en relation de comportement modifiée (MCRE). En effet cette méthode a, par le passé, montrée de très bonnes propriétés de localisation dans le cas d'essais de vibrations couvrant plusieurs fréquences propres. En vue d'obtenir une formulation simple et rapide nous avons privilégié une exploitation approchée des essais par l'intermédiaire d'une approche linéarisée du flambage. Une extension de la MCRE dans ce cadre a été proposée. Cette formulation pose, notamment la difficulté de traiter des résultats expérimentaux qui se présentent non pas sous la forme d'une réponse de flambage pure mais, en raison des défauts géométriques, d'une réponse non-linéaire dés le début des essais. Pour essayer de contourner cette difficulté une exploitation des essais au moyen du diagramme de Southwell a été utilisée. Elle permet, au moins pour des éprouvettes élancées, de déterminer la charge critique théorique d'une éprouvette sans défauts géométriques mais avec défauts matériels. La stéréo corrélation d'images numériques (StereoDIC) est exploitée pour reconstruire la déformée la forme de l'échantillon pendant le test. Les intérêts et les limites de la méthodologie sont discutés sur la base d'essais numériques et l'essai flambage est comparé aux essais de traction, flexion ou de vibration. Il est montré que l'exploitation d'essais de flambage par l'approche proposée est efficace au moins dans le cas d'imperfections géométriques modérées. Finalement la méthode est exploitée dans le cas d'essais expérimentaux à la fois pour un spécimen presque parfait et pour une pièce défectueuse, où une zone d'ondulation de la fibre est introduite. Les résultats obtenus sont encourageants
Composite materials are nowadays extending their operational field to industrial applications other than aeronautics. New potential markets, such as automotive, imply the need to comply with different constraints; reduced cost and production time become more binding, taking the lead over the complete absence of defects. The drawback to fast automatized procedure is the higher defectiveness of the components produced, a deeper control of the part is therefore needed. Non-destructive techniques are expensive both in terms of cost and time and therefore the main question we tried to answer in this thesis is: is it possible to detect and estimate the effect of defects without resorting to the complex and time-consuming NDT techniques? An acceptable answer may potentially lead to a lower precision but should guarantee sufficient quantitative information for these applications. The thesis aims at exploring possibilities to use classical mechanical test combined with Digital Image correlation and inverse procedure to localize and characterized possible (large) defects. Buckling tests have been chosen at first due their supposed sensitivity to defects. Among the possible inverse technique, we have chosen to extend the so-called Modified Error in Constitutive Relation to the case of buckling because, in the case of vibration tests performed with several frequencies, the MCRE proved to have very good localization properties. The dedicated formulation of the MCRE for linearized buckling requires a post-processing of the non-linear experimental results. The Southwell plot is here employed to reconstruct the eigenvalue, the critical load, of the equivalent eigenvalue problem (i.e. the solution of the problem with material defect and no geometrical ones) and the Stereo Digital Image Correlation (StereoDIC) is exploited to reconstruct the deformed shape of the specimen during the test, used as mode. The interests and limits of the methodology are discussed notably through the comparison of numerical results using the MCRE in case of traction, flexion or vibration tests. It is shown that the linearized buckling based MCRE technique proves well for pseudo-experimental measurements at least for moderate geometrical imperfections. In addition first experiments have been performed; the defects are characterized from real experimental specimens, both for a nominally perfect specimen and for a defective one, where a zone of fibre waviness is induced. Stereo Digital Image Correlation (StereoDIC) is exploited to reconstruct the deformed shape of the specimen during the test, this shape being used as an approximation of the buckling mode. While on the first one no defects are detected, on the flawed specimen the localized area is in reasonable agreement with the area affected by fibre undulations
5

Koohkan, Mohammad Reza. "Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1140/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne
Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment
6

Marchand, Basile. "Assimilation de données et recalage rapide de modèles mécaniques complexes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN053/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires
For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models
7

Ben, Azzouna Mouldi. "Identification à partir de mesures de champs : application de l'erreur en relation de comportement modifiée." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00968138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La caractérisation des propriétés matérielles basée sur le dialogue essai-calcul requiert des précautions quant à la prise en compte des grandeurs physiques mises en jeu, aussi bien mesurées que calculées. Les mesures de champs cinématiques délivrent des informations qui permettent de rendre compte du comportement local du matériau et constituent une entrée riche pour ce type de dialogue axé sur la confrontation modèle - mesure. L'objet de ce travail est de discuter l'identification de propriétés élastiques homogènes ou hétérogènes, basée sur l'exploitation de mesures de champs, qui soulève la problématique de la prise en compte de mesures perturbées et d'hypothèses fortes de modélisation. Le but de cette étude est de discuter deux manières différentes pour aborder le problème. La première consiste à traiter les mesures en amont de l'étape d'identification, afin de filtrer les perturbations de mesures, et est basée sur l'outil d'approximation diffuse. La seconde consiste à développer une méthode d'identification inverse à partir d'essais quasi-statiques cherchant à tenir compte du caractère incertain des mesures, dès sa formulation, en utilisant l'ensemble des informations théoriques et expérimentales disponibles, en particulier en l'absence d'informations sur les conditions aux limites. Cette méthode est basée sur les principes de l'erreur en relation de comportement modifiée, amenant à résoudre des problèmes éléments finis non standards, et a conduit à mettre en œuvre des méthodes de résolution adaptées. L'étude a permis de souligner la robustesse de la méthode face aux incertitudes de mesure, notamment en comparaison avec le recalage par éléments finis.
8

Casanove, Marie-José. "Deconvolution partielle et reconstruction d'image : un nouveau principe de regularisation." Toulouse 3, 1987. http://www.theses.fr/1987TOU30022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est montre qu'un bon conditionnement du probleme peut etre assure en limitant de facon explicite la resolution desiree sur l'objet a reconstruire. La procedure interactive developpee sur la base du principe de regularisation permet d'estimer tous les parametres "cles" du probleme. L'influence des divers parametres du probleme sur la qualite de la reconstruction est mise en evidence par des resultats obtenus lors de la deconvolution partielle d'images simulees. Le processus est ensuite applique a des spectres de pertes d'energie experimentaux obtenus en microscopie electronique
9

Nouisri, Amine. "Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]
This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015]
10

Khazâal, Ali. "Reconstruction d'images pour la mission spatiale SMOS." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/917/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
SMOS (Soil Moisture and Ocean Salinity) est une des missions d'exploration de la Terre menées par l'ESA dans le cadre de ses missions dites d'opportunité. Son objectif est l'observation, à une échelle globale, de l'humidité des sols et de la salinité des océans, deux paramètres importants pour une meilleure modélisation du climat et de meilleures prévisions météorologiques. Ces variables sont mesurées de manière indirecte par l'instrument MIRAS, un radiomètre micro-onde imageur dont le principe observationnelle repose sur l'interférométrie et la synthèse d'ouverture. Dans le cadre de cette mission, le problème de la reconstruction de la distribution de température de brillance des scènes observées à partir des données interférométriques est la clef de la réussite de la mission. Il a été démontré que ce problème est mal posé et doit être régularisé afin de fournir une solution unique et stable. Lors de cette thèse, la méthode de régularisation retenue par l'ESA pour la reconstruction de la distribution de la température de brillance est tout d'abord étudiée. Le problème de l'erreur systématique, ou biais de reconstruction, qui peut parfois être importante est ensuite traité et une approche efficace de réduction de cette erreur est proposée et validée. Une extension de cette méthode aux deux modes polarimétrique de SMOS polarisation double et polarisation totale) est ensuite proposée. Deux autres problèmes liés à la reconstruction d'image sont aussi étudiés. Dans un premier temps, l'effet de deux genres de pannes de certains éléments de MIRAS sur la qualité de la reconstruction est étudié. Ensuite, l'étalonnage des diagrammes d'antennes de MIRAS, une fois en orbite, est abordé où une méthode est proposée pour estimer ces diagrammes d'antennes
Synthetic aperture imaging radiometers are powerful sensors for high-resolution observations of the Earth at low microwave frequencies. Within this context, the European Space Agency is currently developing the Soil Moisture and Ocean Salinity (SMOS) mission devoted to the monitoring of SMOS at global scale from L-band space-borne radiometric observations obtained with a 2-D interferometer. This PhD is concerned with the reconstruction of radiometric brightness temperature maps from interferometric measurements through a regularization approach called Band Limited Regularization. More exactly, it concerns with the reduction of the systematic error (or bias) in the reconstruction of radiometric brightness temperature maps from SMOS interferometric measurements. It also extends the concept of "band-limited regularization approach" to the case of the processing of dual and full polarimetric data. Also, two problems that may affect the quality of the reconstruction are investigated. First, the impact of correlators and receivers failures on the reconstruction process is studied. Then, the calibration of MIRAS antenna's voltage patterns, when the instrument is in orbit, is also studied where a general approach is proposed to estimate this antenna's patterns
11

Elamine, Abdallah Bacar. "Régression non-paramétrique pour variables fonctionnelles." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se décompose en quatre parties auxquelles s'ajoute une présentation. Dans un premier temps, on expose les outils mathématiques essentiels à la compréhension des prochains chapitres. Dans un deuxième temps, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles appartenant à un espace de Hilbert. On propose, tout d'abord, un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur de l'opérateur de régression en utilisant une décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma-variation sont posées. Dans le chapitre suivant, on reprend le travail élaboré dans le précédent chapitre en se plaçant dans le cadre de données fonctionnelles appartenant à un espace semi-normé. On établit des bornes de l'EQM de l'estimateur de l'opérateur de régression. Cette EQM peut être vue comme une fonction de la fonction de petite boule de probabilité. Dans le dernier chapitre, on s'intéresse à l'estimation de la fonction auxiliaire associée à la fonction de petite boule de probabilité. D'abord, on propose un estimateur de cette fonction auxiliare. Ensuite, on établit la convergence en moyenne quadratique et la normalité asymptotique de cet estimateur. Enfin, par des simulations, on étudie le comportement de de cet estimateur au voisinage de zéro
This thesis is divided in four sections with an additionnal presentation. In the first section, We expose the essential mathematics skills for the comprehension of the next sections. In the second section, we adress the problem of local non parametric with functional inputs. First, we propose an estimator of the unknown regression function. The construction of this estimator is related to the resolution of a linear inverse problem. Using a classical method of decomposition, we establish a bound for the mean square error (MSE). This bound depends on the small ball probability of the regressor which is assumed to belong to the class of Gamma varying functions. In the third section, we take again the work done in the preceding section by being situated in the frame of data belonging to a semi-normed space with infinite dimension. We establish bound for the MSE of the regression operator. This MSE can be seen as a function of the small ball probability function. In the last section, we interest to the estimation of the auxiliary function. Then, we establish the convergence in mean square and the asymptotic normality of the estimator. At last, by simulations, we study the bahavour of this estimator in a neighborhood of zero
12

Nguyen, Hong-Minh. "Une stratégie d'identification robuste pour la localisation et la rupture." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00140895.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de la thèse est de proposer une stratégie robuste permettant l'identification en dynamique transitoire de loi de comportement gouvernant la réponse du matériau jusqu'à la rupture. Il s'agit d'être à même d'identifier les paramètres matériaux supposés gouverner la rupture dans un contexte où les données expérimentales sont fortement incertaines. Faisant suite à un premier travail où la stratégie avait été élaborée dans un cadre élastique, le travail s'est concentré sur l'extension de la méthode d'identification pour les cas non linéaires tout d'abord la viscoplasticité puis les modéles d'endommagement à taux limités.
Les difficultés rencontrées dans ces cas résident dans la non-linéarité et le caractère instable du problème de minimisation sous contraintes non linéaires auquel la formulation nous amène. Une extension de la méthode LATIN aux problèmes mal posés a été proposée et développée afin de permettre la résolution itérative de ce type de problèmes d'optimisation. La résolution de ces derniers fait appel à une méthode de traitement robuste issue du contrôle optimal et basée sur l'équation de Riccati.
Une fois ces difficultés résolues et dans les cas simples unidimensionnels traités pour le moment, la stratégie d'identification proposée s'avère très robuste face aux perturbations des mesures même dans le cas très sévère de la localisation et de la rupture.
13

Madani, Tarik. "Identification expérimentale de comportements élastoplastiques de matériaux hétérogènes pour des sollicitations complexes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail de thèse fait suite à une première étude où une stratégie d’identification des paramètres et formes des lois de zones cohésives a été élaborée pour des matériaux homogènes. L’extension au cas de matériaux présentant des hétérogénéités nécessite d’accéder localement aux champs de contraintes.Ainsi, l’objectif principal de cette étude est de mettre au point une méthode de caractérisation locale des propriétés mécaniques et des contraintes. Cette méthode est basée sur l’erreur en relation de comportement combinée à l’exploitation de la richesse des mesures de champs cinématiques planes et plus particulièrement des champs de déformations, obtenus par dérivation numérique des champs de déplacements. Cette mesure cinématique est réalisée par une technique de corrélation d’images numériques enrichie.La méthode d’identification est basée sur la minimisation itérative d’une norme énergétique faisant intervenir le tenseur élastoplastique sécant. Différentes simulations numériques ont illustré la capacité de la procédure à identifier localement des champs de propriétés hétérogènes et sa robustesse et sa stabilité vis-à-vis du bruit de mesure, du choix du jeu de paramètres d’initialisation de l’algorithme et de la finesse du maillage.Pour finir, des essais plans avec différentes géométries d’éprouvettes ont été effectués et un essai a été mis au point pour obtenir de manière maîtrisée un état initial très hétérogène. Les résultats d’identification élastoplastique multilinéaire ont montré la capacité de la méthode à identifier les lois de comportements locales sur ce matériau hétérogène
The present work follows a first approach where a strategy for identifying the shape and the parameters of cohesive-zone laws has been developed for homogeneous materials. The extension of this method to heterogeneous material requires the knowledge of the local stress state.The study aims at developing a local characterization method for mechanical properties and stresses. This method is based on the constitutive equation gap principles and relies on the knowledge of mechanical kinematic fields and particularly of the strain fields. These fields are obtained by the numerical differentiation of displacement fields measured by digital image correlation.This identification method is based on the iterative minimization of an energy norm involving the secant elastoplastic tensor. Various numerical simulations were used to illustrate the performance of the procedure for locally identifying heterogeneous property fields, and to characterize its robustness and its stability with respect to noise to the values of the algorithm initialization parameter and to the mesh refinement.Finally, various experimental tests with different specimen geometries were performed and a test has been developed to obtain a controlled heterogeneous initial state. The multilinear elastoplastic identification results showed the ability of the method to identify the local behavior properties on heterogeneous materials
14

Fu, Shuai. "Inversion probabiliste bayésienne en analyse d'incertitude." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00766341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X a partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts surtout avec peu de données disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (méta-modèle) H chapeau. Cette approche implique plusieurs erreurs de nature différente et, dans ce travail, nous nous attachons a estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi a priori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté a notre objectif particulier dans le cadre bayésien. La principale méthodologie présentée dans ce travail a été appliquée a un cas d' étude d'ingénierie hydraulique.
15

Romano, John. "Tracking error of leveraged and inverse etfs." Honors in the Major Thesis, University of Central Florida, 2012. http://digital.library.ucf.edu/cdm/ref/collection/ETH/id/616.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tracking ability of leveraged and inverse exchange traded funds can be very important to investors looking for a dependable return. If the investor wants to put their money on a certain index they feel strongly about, they expect their investment vehicle to track that return appropriately. Over the years, we have seen tremendous growth in the exchange traded fund industry. In 2006, leveraged and inverse funds were introduced to the market, allowing investors to take leveraged and directional trades on indices. These investment vehicles can be traded as easily as any stock, and therefore need some attention. Since any novice investor can access and trade these funds, they need to be aware of the risks they are taking. In this study, I test whether the ProShares S&P tracking leveraged and inverse exchange traded funds track their appropriate index multiple as promised. I did this by running regressions on each fund against the appropriate multiple of their underlying indices. I did this for funds of different market capitalization, for different holding periods, and with different amounts of leverage, to compare how these funds track in different conditions. I found that the large cap funds tend to track the best, with the small cap funds tracking the worst. I also find that tracking error tends to increase with longer holding periods. I find that the distribution of excess returns becomes less normal over longer holding periods, and begins to flatten out and widen. There does not seem to be a concrete conclusion as to whether or not the amount of leverage affects the tracking ability of the funds. I end up with mixed results when comparing amounts of leverage by model fit and by tracking error. Direction also does not seem to play any role in the tracking ability of these funds.
B.S.B.A.
Bachelors
Business Administration
Finance
16

Hablot, Jean-Michel. "Construction de solutions exactes en élastoplasticité. Application à l'estimation d'erreur par apprentissage." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1990. http://tel.archives-ouvertes.fr/tel-00518462.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul par éléments finis des structures en élastoplasticité classique conduit à des dépenses informatiques très élevées, sans qu'on puisse estimer de façon correcte les erreurs commises. Dans notre travail, nous proposons une nouvelle méthode d'estimation a priori des erreurs. Nous construisons d'abord les solutions exactes de problèmes mécaniques par une méthode inverse. Ensuite, nous utilisons ces solutions exactes pour évaluer l'erreur commise lors d'une analyse numérique, avec des discrétisations spatiale et temporelle données. Enfin, nous utilisons cette base d'exemples de deux manières: 1) la recherche de règles simples de remaillage quasi optimal; 2) la construction, par des techniques d'apprentissage automatique, de règles générales donnant a priori la discrétisation nécessaire pour respecter une erreur fixée.
17

Hablot, Jean-Michel. "Construction de solutions exactes en élastoplasticité. Application à l'estimation d'erreur par apprentissage." Phd thesis, Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul par éléments finis des structures en élastoplasticité classique conduit à des dépenses informatiques très élevées, sans qu'on puisse estimer de façon correcte les erreurs commises. Dans notre travail, nous proposons une nouvelle méthode d'estimation à priori des erreurs. Nous construisons d'abord les solutions exactes de problèmes mécaniques par une méthode inverse. Ensuite, nous utilisons ces solutions exactes pour évaluer l'erreur commise lors d'une analyse numérique, avec des discrétisations spatiale et temporelle données. Enfin, nous utilisons cette base d'exemples de deux manières: 1) la recherche de règles simples de remaillage quasi optimal; 2) la construction, par des techniques d'apprentissage automatique, de règles générales donnant a priori la discrétisation nécessaire pour respecter une erreur fixée.
18

Kim, Sungsu. "Inverse circular regression with possibly asymmetric error distribution." Diss., UC access only, 2009. http://proquest.umi.com/pqdweb?index=90&did=1887560071&SrchMode=1&sid=1&Fmt=7&retrieveGroup=0&VType=PQD&VInst=PROD&RQT=309&VName=PQD&TS=1270249121&clientId=48051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (Ph. D.)--University of California, Riverside, 2009.
Includes abstract. Includes bibliographical references (leaves 107-109). Issued in print and online. Available via ProQuest Digital Dissertations.
19

Sivira, Ramses. "Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-01025685.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La place de la vapeur d'eau est centrale dans le système climatique : à l'échelle globale, elle participe à la redistribution de l'excédent d'énergie des régions tropicales vers les régions polaires via les grandes cellules de circulation, à méso-échelle elle participe au développement (maturation, dissipation) des systèmes nuageux, précipitants ou non, et à plus petite échelle, ce sont les lois de la thermodynamique humide qui régissent la microphysique de ces nuages. Finalement c'est le plus abondant des gaz à effet de serre qui est au centre d'une boucle de rétroaction fortement positive. La mission satellite Megha-Tropiques a été conçue pour améliorer la documentation du cycle de l'eau et de l'énergie des régions tropicales, via notamment trois instruments : deux radiomètres microondes MADRAS (un imageur) et SAPHIR (un sondeur) respectivement dédiés à l'observation des précipitations (liquides et glacées) et de l'humidité relative atmosphérique, et un radiomètre multi-spectral ScaRaB pour la mesure des flux radiatifs au sommet de l'atmosphère dans le bilan de l'eau et l'énergie de l'atmosphère tropicale et décrire l'évolution de ces systèmes. Les caractéristiques des instruments embarqués permettraient une résolution étendue autours de la raie à 183 GHz du spectre microonde, qui permet de sonder le contenu en vapeur d'eau même en présence des nuages convectifs. Afin de construire une base d'apprentissage où les valeurs d'entrée et sortie soient parfaitement colocalisées et qui, en même temps, soit représentative du problème à modéliser, une large base de radiosondages obtenus par ciel claire et couvrant la bande tropicale (±30° en latitude) sur la période 1990-2008 a été exploitée en parallèle à un modèle de transfert radiatif pour l'obtention des températures de brillance simulées des deux radiomètres. Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme de restitution des profils de vapeur d'eau à partir des observations SAPHIR et MADRAS, et surtout de quantifier l'incertitude conditionnelle d'estimation. L'approche s'est orientée vers l'exploitation des méthodes purement statistiques de restitution des profils afin d'extraire le maximum d'information issues des observations, sans utiliser d'information complémentaire sur la structure thermodynamique de l'atmosphère ou des profils a priori, pour se concentrer sur les diverses restrictions du problème inverse. Trois modèles statistiques ont été optimisés sur ces données d'apprentissage pour l'estimation des profils sur 7 couches de la troposphère, un réseaux de neurones (modèle perceptron multicouches), le modèle additif généralisé et le modèle de machines à vecteur de support (Least Square-Support Vector Machines), et deux hypothèses de modélisation de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches ont été testées, l'hypothèse Gaussienne (HG) et le mélange de deux distributions Gaussiennes (M2G). L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que les comportements des trois modèles d'estimation sont semblables, ce qui nous permet de dire que la restitution est indépendante de l'approche utilisée et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision pour la restitution des profils verticaux d'humidité relative est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2% et coefficient de corrélation minimum de 0,87 pour l'erreur d'estimation) tandis que la précision se dégrade aux extrêmes de la troposphère (à la surface et proche de la tropopause, avec toutefois un biais maximale de 6,92% associé à une forte dispersion pour un coefficient de corrélation maximum de 0,58 pour l'erreur d'estimation), ce qui est expliqué par le contenu en information des mesures simulées utilisées. A partir de la densité de probabilité de l'erreur, connaissant les températures de brillance observées, des intervalles de confiance conditionnels de l'humidité de chacune de couches de l'atmosphère ont été estimés. Les algorithmes d'inversion développés ont été appliqués sur des données réelles issues de la campagne "vapeur d'eau" de validation Megha-Tropiques de l'été 2012 à Ouagadougou qui a permis d'obtenir des mesures par radiosondages coïncidentes avec les passages du satellite. Après prise en compte de l'angle de visée, des incertitudes liées à l'étalonnage de SAPHIR et des erreurs associées à la mesure in situ, l'exploitation de ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de 4,55% et coefficient de corrélation de 0,874 sur l'erreur d'estimation) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique (biais de -4,81% et coefficient de corrélation de 0,419). L'application systématique sur l'ensemble des mesures réalisées par SAPHIR permettra donc mener des études de la variabilité de la vapeur d'eau tropicale en tenant compte des intervalles de confiance associés à la restitution.
20

Kite, Thomas David. "Design and quality assessment of forward and inverse error diffusion halftoning algorithms /." Digital version accessible at:, 1998. http://wwwlib.umi.com/cr/utexas/main.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Carouge, Claire. "Vers une estimation des flux de CO2 journaliers européens à haute résolution par inversion du transport atmosphérique." Paris 6, 2006. http://www.theses.fr/2006PA066013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

LeÃo, JoÃosuà de ArÃa. "InfluÃncia de manobras de vÃlvulas na identificaÃÃo das rugosidades em tubulaÃÃes de redes de distribuiÃÃo de Ãgua." Universidade Federal do CearÃ, 2014. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=13749.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Atualmente, com base na anÃlise computacional, avaliaÃÃes mais precisas vÃm sendo possÃveis em estudos de dimensionamento de redes de abastecimento de Ãgua. O transiente hidrÃulico à um fenÃmeno que pode afetar toda rede de escoamento forÃado. A compreensÃo deste fenÃmeno e a constante busca de soluÃÃes para evitar seus efeitos danosos acarretam avanÃos tecnolÃgicos significativos, principalmente atravÃs da aplicaÃÃo dos mÃtodos computacionais. O presente trabalho consiste em utilizar o MÃtodo Transiente Inverso (MTI) com um algoritmo genÃtico para a calibraÃÃo das rugosidades absolutas das tubulaÃÃes de duas redes de distribuiÃÃo de Ãgua utilizando quatro tipos de manobras diferentes, atravÃs de parÃmetros genÃticos. O estudo foi feito em duas redes fictÃcias, mas com caracterÃsticas fÃsicas de redes reais. Foi analisado a influencia de manobras de vÃlvulas na identificaÃÃo das rugosidades em tubulaÃÃes de redes de distribuiÃÃo de Ãgua. As simulaÃÃes foram feitas variando dois tipos de seleÃÃo: com elitismo e sem elitismo, considerando os indicadores de eficiÃncia: Erro MÃdio Relativo (EMR), Erro Relativo (ER) e FunÃÃo Objetivo (FO), onde os resultados da Rede A se mostraram melhores para o Erro Relativo (ER) com elitismo nas quatro manobras. Na rede B, o melhor indicador de eficiÃncia para a calibraÃÃo das quatro manobras foi o Erro MÃdio Relativo (EMR) com elitismo e que os indicadores Erro Relativo (ER) e FunÃÃo Objetiva (FO) variam conforme a manobra analisada.
Currently, based on computational analysis, more accurate assessments have been possible in studies of design of water supply networks. The hydraulic transient is a phenomenon that can affect all forced drainage system. Understanding this phenomenon and the constant search for solutions to avoid its harmful effects cause significant technological advances, principally through the application of computational methods. The present work is to use the Transient Inverse Method (TIM) with a genetic algorithm to calibrate the absolute roughness of pipes of two water distribution networks using four different types of maneuvers through genetic parameters. The study was done in two fictitious networks, but with physical characteristics of real networks. We analyzed the influence of valves maneuvers in the identification of roughness in pipes of water distribution networks. The simulations were made by varying two types of selection: elitism with and without elitism, considering the efficiency indicators: Average Relative Error (EMR), Relative Error (RE) and Objective Function (OF), where the results of the Network proved best for the relative error (RE) with elitism in four maneuvers. In network B, the best indicator of efficiency for the calibration of the four maneuvers was the mean relative error (EMR) with elitism and the indicators Relative Error (RE) and Objective Function (OF) vary according to the analyzed maneuver.
23

Narayanamurthi, Mahesh. "Advanced Time Integration Methods with Applications to Simulation, Inverse Problems, and Uncertainty Quantification." Diss., Virginia Tech, 2020. http://hdl.handle.net/10919/104357.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Simulation and optimization of complex physical systems are an integral part of modern science and engineering. The systems of interest in many fields have a multiphysics nature, with complex interactions between physical, chemical and in some cases even biological processes. This dissertation seeks to advance forward and adjoint numerical time integration methodologies for the simulation and optimization of semi-discretized multiphysics partial differential equations (PDEs), and to estimate and control numerical errors via a goal-oriented a posteriori error framework. We extend exponential propagation iterative methods of Runge-Kutta type (EPIRK) by [Tokman, JCP 2011], to build EPIRK-W and EPIRK-K time integration methods that admit approximate Jacobians in the matrix-exponential like operations. EPIRK-W methods extend the W-method theory by [Steihaug and Wofbrandt, Math. Comp. 1979] to preserve their order of accuracy under arbitrary Jacobian approximations. EPIRK-K methods extend the theory of K-methods by [Tranquilli and Sandu, JCP 2014] to EPIRK and use a Krylov-subspace based approximation of Jacobians to gain computational efficiency. New families of partitioned exponential methods for multiphysics problems are developed using the classical order condition theory via particular variants of T-trees and corresponding B-series. The new partitioned methods are found to perform better than traditional unpartitioned exponential methods for some problems in mild-medium stiffness regimes. Subsequently, partitioned stiff exponential Runge-Kutta (PEXPRK) methods -- that extend stiffly accurate exponential Runge-Kutta methods from [Hochbruck and Ostermann, SINUM 2005] to a multiphysics context -- are constructed and analyzed. PEXPRK methods show full convergence under various splittings of a diffusion-reaction system. We address the problem of estimation of numerical errors in a multiphysics discretization by developing a goal-oriented a posteriori error framework. Discrete adjoints of GARK methods are derived from their forward formulation [Sandu and Guenther, SINUM 2015]. Based on these, we build a posteriori estimators for both spatial and temporal discretization errors. We validate the estimators on a number of reaction-diffusion systems and use it to simultaneously refine spatial and temporal grids.
Doctor of Philosophy
The study of modern science and engineering begins with descriptions of a system of mathematical equations (a model). Different models require different techniques to both accurately and effectively solve them on a computer. In this dissertation, we focus on developing novel mathematical solvers for models expressed as a system of equations, where only the initial state and the rate of change of state as a function are known. The solvers we develop can be used to both forecast the behavior of the system and to optimize its characteristics to achieve specific goals. We also build methodologies to estimate and control errors introduced by mathematical solvers in obtaining a solution for models involving multiple interacting physical, chemical, or biological phenomena. Our solvers build on state of the art in the research community by introducing new approximations that exploit the underlying mathematical structure of a model. Where it is necessary, we provide concrete mathematical proofs to validate theoretically the correctness of the approximations we introduce and correlate with follow-up experiments. We also present detailed descriptions of the procedure for implementing each mathematical solver that we develop throughout the dissertation while emphasizing on means to obtain maximal performance from the solver. We demonstrate significant performance improvements on a range of models that serve as running examples, describing chemical reactions among distinct species as they diffuse over a surface medium. Also provided are results and procedures that a curious researcher can use to advance the ideas presented in the dissertation to other types of solvers that we have not considered. Research on mathematical solvers for different mathematical models is rich and rewarding with numerous open-ended questions and is a critical component in the progress of modern science and engineering.
24

Koohkan, Mohammad Reza, and Mohammad Reza Koohkan. "Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00807468.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
25

Espinoza, Mario Sáenz. "Inverse kinematics of a 10 DOF modular hyper-redundant robot resorting to exhaustive and error-optimization methods (a comparative study)." Master's thesis, Instituto Politécnico de Bragança, Escola Superior de Tecnologia e Gestão, 2012. http://hdl.handle.net/10198/8027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The present work describes and compares several approaches applied to compute the inverse kinematics of a ten degrees of freedom hyper-redundant robot. The proposed approaches are based on an exhaustive method and several error-optimization algorithms. The algorithms’ performance was evaluated based on two criteria: computational processing time and final actuator positioning error. The results obtained show that for a small number of modules (less or equal to four), the exhaustive method provides the best problem solution: acceptable computational processing time as well as minimum error. However, for larger number of modules, the error-optimization approach has far better performance regarding the error to processing time ratio. The mentioned hyper-redundant robot was projected to be used in biomedical applications. O presente trabalho descreve e compara diferentes abordagens para a obtenção da cinemática inversa de um robot hiper-redundante com dez graus de liberdade. As abordagens propostas são baseadas nos métodos exaustivo e da optimização do erro cometido. O desempenho dos algoritmos foi avaliado segundo os critérios de velocidade de processamento e erro de posição e orientação do actuador final. Os resultados obtidos mostram que para um número pequeno de módulos (igual ou menor que quatro) o método exaustivo fornece a melhor solução: tempo de processamento computacional aceitável e erro mínimo. No entanto, para um número maior de módulos, a abordagem de optimização do erro tem um melhor desempenho com respeito à relação entre o tempo de processamento e o erro final. O robot hiper-redundante mencionado está projectado para aplicações biomédicas. El presente trabajo describe y compara distintos abordajes aplicados para calcular la cinemática inversa de un robot hiper-redundante con diez grados de libertad. Los abordajes propuestos están basados en los métodos exhaustivo y de optimización del error. El desempeño de los algoritmos fue evaluado basándose en los criterios de velocidad de procesamiento y error tanto de posición como de orientación del actuador final. Los resultados obtenidos muestran que para un número pequeño de módulos (igual o menor que cuatro) el método exhaustivo provee la mejor solución: tiempo de procesamiento computacional aceptable y error mínimo. Sin embargo, para un número mayor de módulos, el abordage de optimización del error tiene un mucho mejor desempeño con respecto a la relación de tiempo de procesamiento y el error final. El robot hiper-redundante mencionado está proyectado para aplicaciones biomédicas.
26

Chen, Jixin. "Some Domain Decomposition and Convex Optimization Algorithms with Applications to Inverse Problems." Doctoral thesis, Universite Libre de Bruxelles, 2018. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/271782.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Domain decomposition and convex optimization play fundamental roles in current computation and analysis in many areas of science and engineering. These methods have been well developed and studied in the past thirty years, but they still require further study and improving not only in mathematics but in actual engineering computation with exponential increase of computational complexity and scale. The main goal of this thesis is to develop some efficient and powerful algorithms based on domain decomposition method and convex optimization. The topicsstudied in this thesis mainly include two classes of convex optimization problems: optimal control problems governed by time-dependent partial differential equations and general structured convex optimization problems. These problems have acquired a wide range of applications in engineering and also demand a very high computational complexity. The main contributions are as follows: In Chapter 2, the relevance of an adequate inner loop starting point (as opposed to a sufficient inner loop stopping rule) is discussed in the context of a numerical optimization algorithm consisting of nested primal-dual proximal-gradient iterations. To study the optimal control problem, we obtain second order domain decomposition methods by combining Crank-Nicolson scheme with implicit Galerkin method in the sub-domains and explicit flux approximation along inner boundaries in Chapter 3. Parallelism can be easily achieved for these explicit/implicit methods. Time step constraints are proved to be less severe than that of fully explicit Galerkin finite element method. Based on the domain decomposition method in Chapter 3, we propose an iterative algorithm to solve an optimal control problem associated with the corresponding partial differential equation with pointwise constraint for the control variable in Chapter 4. In Chapter 5, overlapping domain decomposition methods are designed for the wave equation on account of prediction-correction" strategy. A family of unit decomposition functions allow reasonable residual distribution or corrections. No iteration is needed in each time step. This dissertation also covers convergence analysis from the point of view of mathematics for each algorithm we present. The main discretization strategy we adopt is finite element method. Moreover, numerical results are provided respectivelyto verify the theory in each chapter.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
27

Camp, Brian David. "A Class of Immersed Finite Element Spaces and Their Application to Forward and Inverse Interface Problems." Diss., Virginia Tech, 2003. http://hdl.handle.net/10919/29923.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A class of immersed finite element (IFE) spaces is developed for solving elliptic boundary value problems that have interfaces. IFE spaces are finite element approximation spaces which are based upon meshes that can be independent of interfaces in the domain. Three different quadratic IFE spaces and their related biquadratic IFE spaces are introduced here for the purposes of solving both forward and inverse elliptic interface problems in 1D and 2D. These different spaces are constructed by (i) using a hierarchical approach, (ii) imposing extra continuity requirements or (iii) using a local refinement technique. The interpolation properties of each space are tested against appropriate testing functions in 1D and 2D. The IFE spaces are also used to approximate the solution of a forward elliptic interface problem using the Galerkin finite element method and the mixed least squares finite element method. Finally, one appropriate space is selected to solve an inverse interface problem using either an output least squares approach or the least squares with mixed equation error method.
Ph. D.
28

Tate, D. "A microprocessor controlled error switching inverter used in the uninterruptible power supply environment." Thesis, University of Bath, 1985. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.275883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Bampi, Carole. "Implications de la protéine de nucléocapside et de la transcriptase inverse dans la spécificité et les erreurs de la réplication des rétroéléments Ty1 et HIV-1." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0348.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Stephan, Anna [Verfasser], Denis Akademischer Betreuer] Belomestny, Volker [Akademischer Betreuer] Krätschmer, and John [Akademischer Betreuer] [Schoenmakers. "On an inverse problem of financial mathematics with error in the operator / Anna Stephan. Gutachter: Volker Krätschmer ; John Schoenmakers. Betreuer: Denis Belomestny." Duisburg, 2014. http://d-nb.info/1050348680/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Alarcon, Cot Albert. "Une approche de l'identification en dynamique des structures combinant l'erreur en relation de comportement et le filtrage de Kalman." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00724815.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes d'erreur en relation de comportement (ERC) mesurent l'écart entre un modèle mathématique et des observations au moyen de fonctionnelles énergétiques qui sont, quant à elles, construites sur la base de champs admissibles. Ces méthodes présentent des excellentes capacités à localiser spatialement des défauts structuraux, une grande robustesse vis-à-vis des bruits de mesure, ou encore de bonnes propriétés de convexité des fonctions coût. Par ailleurs, les méthodes de filtrage de Kalman (KF) répondent au problème d'identification récursif dans une approche de type prédiction-correction. Elles s'avèrent tout particulièrement adaptées aux systèmes évolutifs dont les informations de modèle et d'observation peuvent être entachées d'erreurs. La partie centrale de ce travail est ainsi consacrée à la construction puis à la mise en oeuvre d'une stratégie d'utilisation combinée de l'ERC et du FK. Pour cela, l'ERC est utilisée comme une technique pour améliorer la connaissance a priori des défauts de modèle. Les fonctionnelles d'ERC sont ensuite introduites comme fonctions d'observation dans une description d'état du problème d'identification. Sa résolution est menée à bien avec le FK ''Unscented'' (UKF) présentant le double avantage d'avoir une excellente tout en évitant l'évaluation de Jacobiens et de Hessiens. Cette approche est testée et illustrée au moyen d'études numériques et appliqué à des cas complexes industriels tels que l'apparition et la progression de l'endommagement structurel au cours d'une sollicitation, la modification des conditions aux limites d'une structure entre différentes étapes de son exploitation, ou encore l'expansion de données expérimentales sur un modèle numérique.
32

Sheng, Jing Jing. "An error detection-based droop-boost control method for the capacitive-coupling grid-connected inverter." Thesis, University of Macau, 2017. http://umaclib3.umac.mo/record=b3691771.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Alarcon, Cot Albert. "Une approche de l'identification en dynamique des structures combinant l'erreur en relation de comportement et le filtrage de Kalman." Phd thesis, Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/72/48/15/PDF/these_Albert_Alarcon.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes d'erreur en relation de comportement (ERC) mesurent l'écart entre un modèle mathématique et des observations au moyen de fonctionnelles énergétiques qui sont, quant à elles, construites sur la base de champs admissibles. Ces méthodes présentent des excellentes capacités à localiser spatialement des défauts structuraux, une grande robustesse vis-à-vis des bruits de mesure, ou encore de bonnes propriétés de convexité des fonctions coût. Par ailleurs, les méthodes de filtrage de Kalman (KF) répondent au problème d'identification récursif dans une approche de type prédiction-correction. Elles s'avèrent tout particulièrement adaptées aux systèmes évolutifs dont les informations de modèle et d'observation peuvent être entachées d'erreurs. La partie centrale de ce travail est ainsi consacrée à la construction puis à la mise en oeuvre d'une stratégie d'utilisation combinée de l'ERC et du FK. Pour cela, l'ERC est utilisée comme une technique pour améliorer la connaissance a priori des défauts de modèle. Les fonctionnelles d'ERC sont ensuite introduites comme fonctions d'observation dans une description d'état du problème d'identification. Sa résolution est menée à bien avec le FK ''Unscented'' (UKF) présentant le double avantage d'avoir une excellente tout en évitant l'évaluation de Jacobiens et de Hessiens. Cette approche est testée et illustrée au moyen d'études numériques et appliqué à des cas complexes industriels tels que l'apparition et la progression de l'endommagement structurel au cours d'une sollicitation, la modification des conditions aux limites d'une structure entre différentes étapes de son exploitation, ou encore l'expansion de données expérimentales sur un modèle numérique
Error in Constitutive Relation (ECR) methods measure model error by evaluating the difference between admissible fields using an energy norm. This technique presents interesting features such as good ability to spatially localize erroneously modeled regions, strong robustness in presence of noisy data, and good regularity properties of cost functions. On the other hand, the Kalman filter (KF) is a prediction-correction algorithm for recursive system estimation. The KF is particularly suitable for studying evolutionary systems embedding noisy data from both model and observation. The main part of this work is devoted to establish and evaluate a general-purpose identification approach using ECR and KF. In order to achieve this goal, the ECR is initially used to improve the a priori knowledge of model errors. Furthermore, ECR functionals are introduced in a state-space description of the identification problem. Its resolution is performed by means of the Unscented Kalman Filter (UKF), a second-order, reduced-cost, Kalman filter. The adequacy of the ECR-UKF approach to address problems of industrial relevance is shown through different numerical examples and complex industrial cases, such as structural time-varying damage assessment, boundary conditions identification of in-operation structures and field reconstruction problems. Moreover, these examples are used to improve the performance of the ECR-UKF algorithm, particularly the introduction of algebraic constraints in the ECR-UKF algorithm and the influence of error covariance matrix design
34

Carlsson, Jesper. "Pontryagin approximations for optimal design." Licentiate thesis, Stockholm, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-4089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Costa, BÃrbara Cristina Alves da. "Load measurement error influence on friction factor calibration of pipe water distribution networks through do reverse transient method and genetic algorithm." Universidade Federal do CearÃ, 2014. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=13621.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
O estudo de redes hidrÃulicas para fins de operaÃÃo ou anÃlise de viabilidade para ampliaÃÃo ou recuperaÃÃo das mesmas à iniciado pela calibraÃÃo, neste contexto, entendida como identificaÃÃo de parÃmetros tais como: fator de atrito, rugosidade e diÃmetro. O MÃtodo Transiente Inverso em conjunto com Algoritmo genÃtico se mostra eficiente nessa tarefa. O referido mÃtodo emprega o MÃtodo das CaracterÃsticas na soluÃÃo das equaÃÃes de movimento para escoamento transiente em tubos de redes e a otimizaÃÃo das soluÃÃes à baseada na Teoria Evolutiva e avaliada por uma funÃÃo objetivo, que neste estudo à o somatÃrio do mÃdulo da diferenÃa entre as cargas medidas e calculadas pelo modelo para cada conjunto de soluÃÃes. Considerando que o objetivo do desenvolvimento de modelos matemÃticos para a calibraÃÃo de redes hipotÃticas à a utilizaÃÃo dos mesmos em redes reais, e que nessas, a coleta de dados de carga està sujeita a erros de mediÃÃo, seja devido a defeitos nos equipamentos seja por condiÃÃes ambiente desfavorÃveis ou outros efeitos aleatÃrios e tendo em vista a relevÃncia dos fatores de atrito nas tubulaÃÃes, pela sua relaÃÃo com perdas de carga que devem ser controladas para um Ãtimo funcionamento de redes, garantindo um abastecimento contÃnuo em quantidade e condiÃÃes de funcionamento adequados, este trabalho propÃe-se a verificar a interferÃncia da presenÃa de erros de mediÃÃo de carga transiente na identificaÃÃo dos fatores de atrito em duas redes hidrÃulicas hipotÃticas. As mesmas sÃo de portes diferentes com relaÃÃo ao nÃmero de anÃis, nÃs e tubos. Ambas sÃo alimentadas por um reservatÃrio cada. As condiÃÃes transientes sÃo atribuÃdas a uma manobra de vÃlvula instalada em um dos nÃs de cada rede. A coleta de dados de carga à restrita a 20% dos nÃs de cada rede, sendo que um deles à o nà onde se encontra a vÃlvula. O tempo de observaÃÃo do transiente hidrÃulico à restrito ao tempo da manobra de vÃlvula, 20s, e ocorre em intervalos de 0,1s, resultando em 200 registros de carga. A condiÃÃo permanente das redes à inicialmente desconhecida o conhecimento acerca da mesma à restrito a carga nos reservatÃrios e demandas nos nÃs, bem como diÃmetros dos tubos, os fatores de atrito sÃo inicialmente estipulados. A determinaÃÃo das condiÃÃes permanente e transiente bem como a identificaÃÃo dos fatores de atrito à realizada com a utilizaÃÃo de um modelo hidrÃulico e geram cargas transientes que sÃo consideradas convencionalmente verdadeiras, essas entÃo recebem incrementos de diversos erros sistemÃticos e aleatÃrios, que geram novas cargas e essas sÃo consideradas coletadas com erros de mediÃÃo. A partir dessas novas cargas sÃo realizadas identificaÃÃes de fatores de atrito, os quais sÃo comparados com os que foram obtidos considerando um caso ideal de cargas sem erros de mediÃÃo. A referida comparaÃÃo à realizada atravÃs do Erro MÃdio Relativo e da FunÃÃo Objetivo Ãtima. Os resultados encontrados demonstram que os erros de mediÃÃo interferem na identificaÃÃo dos fatores de atrito apesar de nÃo ser possÃvel delinear uma relaÃÃo entre os mesmos.
The study of hydraulic networks for operation purposes or viability analysis for extension or renovation of the same is started the calibration in this context understood as identification parameters, such as friction coefficient, surface roughness and diameter. The Transient Inverse Method in conjunction with genetic algorithm is efficient in this task shows. This method employs the method of characteristics in the solution of the equations of motion for transient flow in networks of pipes and the optimization of solutions is based on Evolutionary Theory and evaluated by an objective function, which in this study is the sum of the difference between the module loads measured and calculated by the model for each set of solutions. Whereas the objective of the development of mathematical models for calibration hypothetical networks is their use in real networks, and that these, the collection of payload data is subject to measurement errors, is due to defects in the equipment or by conditions unfavorable environment or other random effects and taking into account the relevance of friction factors in pipelines, by their relationship to head losses that must be controlled to a great operation of networks, ensuring a continuous supply in quantity and appropriate operating conditions, this work is proposed to verify the influence of the presence of transient load measurement errors in the identification of friction factors in two hypothetical hydraulic networks. They are of different sizes with the number of rings, knots and tubes. Both are each fed by a reservoir. The transient conditions are assigned to a valve maneuver installed in one of the nodes of each network. The load data collection is restricted to 20% of the nodes in each network, one of which is the node where the valve is located. The hydraulic transient observation time is restricted to the valve maneuver time, 20s, and occurs at intervals of 0.1s, resulting in 200 charge records. The permanent condition of networks is initially unknown knowledge about the same is restricted to load in the reservoirs and demands on us as well as pipe diameter, the friction factors are initially stipulated. The determination of the permanent and transient conditions and the identification of the friction factors is performed using a hydraulic model and generate transient loads which are conventionally considered true, then these various steps of receiving systematic and random errors, which generate new burdens and these are considered collected with measurement errors. From these new loads are carried IDs friction factors, which are compared with those obtained considering an ideal case with no measurement errors loads. This comparison is performed using the mean relative error and function great goal. The results show that measurement errors in the identification of interfering friction factors although not possible to draw a relationship between them.
36

Ozhamam, Murat. "Accuracy And Efficiency Improvements In Finite Difference Sensitivity Calculations." Master's thesis, METU, 2007. http://etd.lib.metu.edu.tr/upload/12609128/index.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Accuracy of the finite difference sensitivity calculations are improved by calculating the optimum finite difference interval sizes. In an aerodynamic inverse design algorithm, a compressor cascade geometry is perturbed by shape functions and finite differences sensitivity derivatives of the flow variables are calculated with respect to the base geometry flow variables. Sensitivity derivatives are used in an optimization code and a new airfoil is designed verifying given design characteristics. Accurate sensitivities are needed for optimization process. In order to find the optimum finite difference interval size, a method is investigated. Convergence error estimation techniques in iterative solutions and second derivative estimations are investigated to facilitate this method. For validation of the method, analytical sensitivity calculations of Euler equations are used and several applications are performed. Efficiency of the finite difference sensitivity calculations is improved by parallel computing. Finite difference sensitivity calculations are independent tasks in an inverse aerodynamic design algorithm and can be computed separately. Sensitivity calculations are performed on parallel processors and computing time is decreased.
37

Shikhar. "COMPRESSIVE IMAGING FOR DIFFERENCE IMAGE FORMATION AND WIDE-FIELD-OF-VIEW TARGET TRACKING." Diss., The University of Arizona, 2010. http://hdl.handle.net/10150/194741.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Use of imaging systems for performing various situational awareness tasks in militaryand commercial settings has a long history. There is increasing recognition,however, that a much better job can be done by developing non-traditional opticalsystems that exploit the task-specific system aspects within the imager itself. Insome cases, a direct consequence of this approach can be real-time data compressionalong with increased measurement fidelity of the task-specific features. In others,compression can potentially allow us to perform high-level tasks such as direct trackingusing the compressed measurements without reconstructing the scene of interest.In this dissertation we present novel advancements in feature-specific (FS) imagersfor large field-of-view surveillence, and estimation of temporal object-scene changesutilizing the compressive imaging paradigm. We develop these two ideas in parallel.In the first case we show a feature-specific (FS) imager that optically multiplexesmultiple, encoded sub-fields of view onto a common focal plane. Sub-field encodingenables target tracking by creating a unique connection between target characteristicsin superposition space and the target's true position in real space. This isaccomplished without reconstructing a conventional image of the large field of view.System performance is evaluated in terms of two criteria: average decoding time andprobability of decoding error. We study these performance criteria as a functionof resolution in the encoding scheme and signal-to-noise ratio. We also includesimulation and experimental results demonstrating our novel tracking method. Inthe second case we present a FS imager for estimating temporal changes in the objectscene over time by quantifying these changes through a sequence of differenceimages. The difference images are estimated by taking compressive measurementsof the scene. Our goals are twofold. First, to design the optimal sensing matrixfor taking compressive measurements. In scenarios where such sensing matrices arenot tractable, we consider plausible candidate sensing matrices that either use theavailable a priori information or are non-adaptive. Second, we develop closed-form and iterative techniques for estimating the difference images. We present results to show the efficacy of these techniques and discuss the advantages of each.
38

Guo, Ruchi. "Design, Analysis, and Application of Immersed Finite Element Methods." Diss., Virginia Tech, 2019. http://hdl.handle.net/10919/90374.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This dissertation consists of three studies of immersed finite element (IFE) methods for inter- face problems related to partial differential equations (PDEs) with discontinuous coefficients. These three topics together form a continuation of the research in IFE method including the extension to elasticity systems, new breakthroughs to higher degree IFE methods, and its application to inverse problems. First, we extend the current construction and analysis approach of IFE methods in the literature for scalar elliptic equations to elasticity systems in the vector format. In particular, we construct a group of low-degree IFE functions formed by linear, bilinear, and rotated Q1 polynomials to weakly satisfy the jump conditions of elasticity interface problems. Then we analyze the trace inequalities of these IFE functions and the approximation capabilities of the resulted IFE spaces. Based on these preparations, we develop a partially penalized IFE (PPIFE) scheme and prove its optimal convergence rates. Secondly, we discuss the limitations of the current approaches of IFE methods when we try to extend them to higher degree IFE methods. Then we develop a new framework to construct and analyze arbitrary p-th degree IFE methods. In this framework, each IFE function is the extension of a p-th degree polynomial from one subelement to the whole interface element by solving a local Cauchy problem on interface elements in which the jump conditions across the interface are employed as the boundary conditions. All the components in the analysis, including existence of IFE functions, the optimal approximation capabilities and the trace inequalities, are all reduced to key properties of the related discrete extension operator. We employ these results to show the optimal convergence of a discontinuous Galerkin IFE (DGIFE) method. In the last part, we apply the linear IFE methods in the literature together with the shape optimization technique to solve a group of interface inverse problems. In this algorithm, both the governing PDEs and the objective functional for interface inverse problems are discretized optimally by the IFE method regardless of the location of the interface in a chosen mesh. We derive the formulas for the gradients of the objective function in the optimization problem which can be implemented efficiently in the IFE framework through a discrete adjoint method. We demonstrate the properties of the proposed algorithm by applying it to three representative applications.
Doctor of Philosophy
Interface problems arise from many science and engineering applications modeling the transmission of some physical quantities between multiple materials. Mathematically, these multiple materials in general are modeled by partial differential equations (PDEs) with discontinuous parameters, which poses challenges to developing efficient and reliable numerical methods and the related theoretical error analysis. The main contributions of this dissertation is on the development of a special finite element method, the so called immersed finite element (IFE) method, to solve the interface problems on a mesh independent of the interface geometry which can be advantageous especially when the interface is moving. Specifically, this dissertation consists of three projects of IFE methods: elasticity interface problems, higher-order IFE methods and interface inverse problems, including their design, analysis, and application.
39

Richardson, Omar. "Mathematical analysis and approximation of a multiscale elliptic-parabolic system." Licentiate thesis, Karlstads universitet, Institutionen för matematik och datavetenskap (from 2013), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-68686.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
We study a two-scale coupled system consisting of a macroscopic elliptic equation and a microscopic parabolic equation. This system models the interplay between a gas and liquid close to equilibrium within a porous medium with distributed microstructures. We use formal homogenization arguments to derive the target system. We start by proving well-posedness and inverse estimates for the two-scale system. We follow up by proposing a Galerkin scheme which is continuous in time and discrete in space, for which we obtain well-posedness, a priori error estimates and convergence rates. Finally, we propose a numerical error reduction strategy by refining the grid based on residual error estimators.
40

Sandberg, Henrik. "Linear Time-Varying Systems: Modeling and Reduction." Licentiate thesis, Lund University, Department of Automatic Control, 2002. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-74720.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Linear time-invariant models are widely used in the control community. They often serve as approximations of nonlinear systems. For control purposes linear approximations are often good enough since feedback control systems are inherently robust to model errors. In this thesis some of the possibilities for linear time-varying modeling are studied. In the thesis it is shown that the balanced truncation procedure can be applied to reduce the order of linear time-varying systems. Many of the attractive properties of balanced truncation for time-invariant systems can be generalized into the time-varying framework. For example, it is shown that a truncated input-output stable system will be input-output stable, and computable simple worst-case error bounds are derived. The method is illustrated with model reduction of a nonlinear diesel exhaust catalyst model. It is also shown that linear time-periodic models can be used for analysis of systems with power converters. Power converters produce harmonics in the power grids and give frequency coupling that cannot be modeled with standard time-invariant linear models. With time-periodic models we can visualize the coupling and also use all the available tools for linear time-varying systems, such as balanced truncation. The method is illustrated on inverter locomotives.
QC 20120208
41

Akbari, Ali. "Modélisation parcimonieuse des signaux : application a la compression d'image, compensation d'erreurs et à l'acquisition comprimée." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS461.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation des signaux peut être vue comme la pierre angulaire de la méthodologie contemporaine de traitement du signal et de l'image. La modélisation parcimonieuse permets la représentation des signaux en termes de combinaisons linéaires d'un ensemble sous-jacent, appelé dictionnaire, de signaux élémentaires connus sous le nom d'atomes. La force motrice de ce modèle est la rareté des coefficients de représentation, c'est-à-dire la décroissance rapide des coefficients de représentation sur le dictionnaire. L'objectif principal de cette thèse est de fournir de nouvelles applications pour cette méthode de modélisation du signal en abordant plusieurs problèmes sous différents angles. On se concentre sur une autre application importante de la modélisation parcimonieuse des signaux, à savoir la résolution des problèmes inverses, notamment la compensation des erreurs, la reconstruction des images incomplètes et la reconstruction des images compresses à partir d'un nombre limité de mesures aléatoires. La modélisation du signal est généralement utilisée comme une connaissance préalable du signal pour résoudre ces problèmes NP-difficiles. Puis, Il commence par l'application directe de la représentation éparse, c'est-à-dire a la compression d'image. Un nouveau codec image basé sur la représentation éparse adaptative sur un dictionnaire formé est proposé, dans lesquels différents niveaux de densité sont assignés aux correctifs d'image appartenant aux régions saillantes. Dans cette thèse, ces défis sont transférés dans des cadres distincts d’acquisition comprimée et plusieurs méthodes de reconstruction sont proposées
Signal models are a cornerstone of contemporary signal and image processing methodology. In this report, two particular signal modeling methods, called analysis and synthesis sparse representation, are studied which have been proven to be effective for many signals, such as natural images, and successfully used in a wide range of applications. Both models represent signals in terms of linear combinations of an underlying set, called dictionary, of elementary signals known as atoms. The driving force behind both models is sparsity of the representation coefficients, i.e. the rapid decay of the representation coefficients over the dictionary. On the other hands, the dictionary choice determines the success of the entire model. According to these two signal models, there have been two main disciplines of dictionary designing; harmonic analysis approach and machine learning methodology. The former leads to designing the dictionaries with easy and fast implementation, while the latter provides a simple and expressive structure for designing adaptable and efficient dictionaries. The main goal of this thesis is to provide new applications to these signal modeling methods by addressing several problems from various perspectives. It begins with the direct application of the sparse representation, i.e. image compression. The line of research followed in this area is the synthesis-based sparse representation approach in the sense that the dictionary is not fixed and predefined, but learned from training data and adapted to data, yielding a more compact representation. A new Image codec based on adaptive sparse representation over a trained dictionary is proposed, wherein different sparsity levels are assigned to the image patches belonging to the salient regions, being more conspicuous to the human visual system. Experimental results show that the proposed method outperforms the existing image coding standards, such as JPEG and JPEG2000, which use an analytic dictionary, as well as the state-of-the-art codecs based on the trained dictionaries. In the next part of thesis, it focuses on another important application of the sparse signal modeling, i.e. solving inverse problems, especially for error concealment (EC), wherein a corrupted image is reconstructed from the incomplete data, and Compressed Sensing recover, where an image is reconstructed from a limited number of random measurements. Signal modeling is usually used as a prior knowledge about the signal to solve these NP-hard problems. In this thesis, inspired by the analysis and synthesis sparse models, these challenges are transferred into two distinct sparse recovery frameworks and several recovery methods are proposed. Compared with the state-of-the-art EC and CS algorithms, experimental results show that the proposed methods show better reconstruction performance in terms of objective and subjective evaluations. This thesis is finalized by giving some conclusions and introducing some lines for future works
42

Nilsson, Martin. "Fast Numerical Techniques for Electromagnetic Problems in Frequency Domain." Doctoral thesis, Uppsala : Acta Universitatis Upsaliensis : Univ.-bibl. [distributör], 2003. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-3884.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Penin, Fernandez Natalia <1976&gt. "La competencia lexicografica y su influencia en el error en la traduccion inversa italiano espa?ol. Propuesta de formacion en modalidad SPOC para la adquisicion de la competencia lexicografica en la didactica de la traduccion no especializada." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amsdottorato.unibo.it/9230/1/Tesis%20depositada%20UNIBO_La%20competencia%20lexicogra%CC%81fica%20y%20su%20influencia%20en%20el%20error%20...%20.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La presente tesis, desarrollada en el Dipartimento di Traduzione, Interpretazione e Interculturalità de la Universidad de Bolonia en cotutela con el Área de Traducción e Interpretación —Departamento de Lengua Española— de la Universidad de Valladolid, se enmarca dentro de la disciplina de Didáctica de la traducción y se centra en el estudio del error y su relación con la competencia lexicográfica en la traducción inversa no especializada. Sus dos objetivos principales son, por un lado, obtener la tipificación y la frecuencia de los errores de traducción mediante un corpus compuesto por ejercicios presentados por estudiantes de Traducción del italiano al español y, por otro, diseñar una propuesta pedagógica en modalidad SPOC para desarrollar la competencia lexicográfica del alumnado e implementar una prueba piloto en el aula para validarla. Por este motivo, la tesis se divide en dos partes. La primera, basada en el corpus TRADITES, consiste en su compilación y análisis cuantitativo y cualitativo. En la segunda parte, a partir de los resultados del análisis, se ha elaborado una propuesta pedagógica en modalidad SPOC sobre la introducción a los recursos lexicográficos monolingües y bilingües de dos idiomas afines —italiano y español— para desarrollar la competencia lexicográfica de los alumnos. Posteriormente, la propuesta ha sido validada mediante la implementación de una prueba piloto en el aula. Los resultados obtenidos confirman que en la traducción inversa la dificultad mayor se sitúa en la fase de reconstrucción del texto en la lengua de llegada y no en la fase de comprensión como sucede en la traducción directa. Una inmediata inferencia del análisis cualitativo permite confirmar que parte de los problemas que subyacen a los errores lingüísticos detectados hallan una posible solución en el «uso inteligente» de obras lexicográficas consultadas.
La presente tesi, sviluppata nel Dipartimento di Traduzione, Interpretazione e Interculturalità dell'Università di Bologna in cotutela con l'Área de Traducción e Interpretación —Departamento de Lengua Española— della Universidad de Valladolid, si inquadra nell’ambito disciplinare della Didattica della traduzione e si concentra sullo studio dell'errore e del suo rapporto con la competenza lessicografica nella traduzione attiva non specializzata. I suoi due obiettivi principali sono, da un lato, ottenere la tipizzazione e la frequenza degli errori di traduzione attraverso un corpus composto dagli esercizi presentati dagli studenti di Traduzione dall'italiano allo spagnolo e, dall'altro, progettare una proposta pedagogica in modalità SPOC per sviluppare le competenze lessicografiche degli studenti e realizzare un corso pilota in aula per convalidarla. Per questa ragione, la tesi è divisa in due parti. La prima, si basa sul corpus TRADITES e consiste nella sua compilazione e analisi quantitativa e qualitativa. Nella seconda parte, sulla base dei risultati dell'analisi, è stata elaborata una proposta pedagogica in modalità SPOC sull'introduzione alle risorse lessicografiche monolingui e bilingui di due lingue correlate —italiano e spagnolo— al fine di sviluppare in aula la competenza lessicografica degli studenti. Successivamente, la proposta è stata convalidata attraverso l'implementazione di un corso pilota in classe. I risultati confermano che nella traduzione attiva la difficoltà maggiore risiede nella fase di riproduzione del testo nella lingua di arrivo e non nella fase di comprensione come nella traduzione diretta. Un'immediata deduzione dall’analisi qualitativa conferma che parte dei problemi alla base degli errori linguistici rilevati trovano una possibile soluzione “nell’uso intelligente" delle opere lessicografiche consultate.
This thesis, developed in the Department of Translation, Interpretation and Interculturality of the University of Bologna and the Universidad de Valladolid, is part of the disciplinary field of Translation Teaching and focuses on the study of error and its relationship with lexicographic competence in active non-specialized translation. Its two main objectives are, on the one hand, to obtain the typing and the frequency of translation errors through a corpus consisting of the exercises presented by the translation students from Italian to Spanish and, on the other, to design a pedagogical proposal in SPOC mode to develop students' lexicographical skills and carry out a pilot classroom course to validate it. The thesis is divided into two parts. The first is based on the TRADITES corpus and consists of its compilation and quantitative and qualitative analysis. In the second part, based on the results of the analysis, was developed a pedagogical proposal in SPOC mode on the introduction to monolingual and bilingual lexicographic resources of two related languages - Italian and Spanish - in order to develop the students' lexicographic competence in the classroom. Subsequently, the proposal was validated through the implementation of a pilot course in the classroom. The results confirm that in reverse translation the greatest difficulty lies in the reproduction of the text in the target language and not in the comprehension phase as in direct translation. An immediate deduction from the qualitative analysis confirms that part of the problems underlying the detected linguistic errors find a possible solution "in the intelligent use" of the lexicographic works consulted
44

Maršálek, Tomáš. "Návrh vyhledávacího systému pro moderní potřeby." Master's thesis, Vysoká škola ekonomická v Praze, 2016. http://www.nusl.cz/ntk/nusl-262227.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this work I argue that field of text search has focused mostly on long text documents, but there is a growing need for efficient short text search, which has different user expectations. Due to this reduced data set size requirements different algorithmic techniques become more computationally affordable. The focus of this work is on approximate and prefix search and purely text based ranking methods, which are needed due to lower precision of text statistics on short text. A basic prototype search engine has been created using the researched techniques. Its capabilities were demonstrated on example search scenarios and the implementation was compared to two other open source systems representing currently recommended approaches for short text search problem. The results show feasibility of the implemented prototype regarding both user expectations and performance. Several options of future direction of the system are proposed.
45

Nyman, Peter. "On relations between classical and quantum theories of information and probability." Doctoral thesis, Linnéuniversitetet, Institutionen för datavetenskap, fysik och matematik, DFM, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-13830.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this thesis we study quantum-like representation and simulation of quantum algorithms by using classical computers.The quantum--like representation algorithm (QLRA) was  introduced by A. Khrennikov (1997) to solve the ``inverse Born's rule problem'', i.e. to construct a representation of probabilistic data-- measured in any context of science-- and represent this data by a complex or more general probability amplitude which matches a generalization of Born's rule.The outcome from QLRA matches the formula of total probability with an additional trigonometric, hyperbolic or hyper-trigonometric interference term and this is in fact a generalization of the familiar formula of interference of probabilities. We study representation of statistical data (of any origin) by a probability amplitude in a complex algebra and a Clifford algebra (algebra of hyperbolic numbers). The statistical data is collected from measurements of two dichotomous and trichotomous observables respectively. We see that only special statistical data (satisfying a number of nonlinear constraints) have a quantum--like representation. We also study simulations of quantum computers on classical computers.Although it can not be denied that great progress have been made in quantum technologies, it is clear that there is still a huge gap between the creation of experimental quantum computers and realization of a quantum computer that can be used in applications. Therefore the simulation of quantum computations on classical computers became an important part in the attempt to cover this gap between the theoretical mathematical formulation of quantum mechanics and the realization of quantum computers. Of course, it can not be expected that quantum algorithms would help to solve NP problems for polynomial time on classical computers. However, this is not at all the aim of classical simulation.  The second part of this thesis is devoted to adaptation of the Mathematica symbolic language to known quantum algorithms and corresponding simulations on classical computers. Concretely we represent Simon's algorithm, Deutsch-Josza algorithm, Shor's algorithm, Grover's algorithm and quantum error-correcting codes in the Mathematica symbolic language. We see that the same framework can be used for all these algorithms. This framework will contain the characteristic property of the symbolic language representation of quantum computing and it will be a straightforward matter to include future algorithms in this framework.
46

Wikström, Gunilla. "Computation of Parameters in some Mathematical Models." Doctoral thesis, Umeå University, Computing Science, 2002. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-565.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:

In computational science it is common to describe dynamic systems by mathematical models in forms of differential or integral equations. These models may contain parameters that have to be computed for the model to be complete. For the special type of ordinary differential equations studied in this thesis, the resulting parameter estimation problem is a separable nonlinear least squares problem with equality constraints. This problem can be solved by iteration, but due to complicated computations of derivatives and the existence of several local minima, so called short-cut methods may be an alternative. These methods are based on simplified versions of the original problem. An algorithm, called the modified Kaufman algorithm, is proposed and it takes the separability into account. Moreover, different kinds of discretizations and formulations of the optimization problem are discussed as well as the effect of ill-conditioning.

Computation of parameters often includes as a part solution of linear system of equations Ax = b. The corresponding pseudoinverse solution depends on the properties of the matrix A and vector b. The singular value decomposition of A can then be used to construct error propagation matrices and by use of these it is possible to investigate how changes in the input data affect the solution x. Theoretical error bounds based on condition numbers indicate the worst case but the use of experimental error analysis makes it possible to also have information about the effect of a more limited amount of perturbations and in that sense be more realistic. It is shown how the effect of perturbations can be analyzed by a semi-experimental analysis. The analysis combines the theory of the error propagation matrices with an experimental error analysis based on randomly generated perturbations that takes the structure of A into account

47

Erdogan, Ahmet Yasin. "Analysis of the effects of phase noise and frequency offset in orthogonal frequency division multiplexing (OFDM) systems." Thesis, Monterey California. Naval Postgraduate School, 2004. http://hdl.handle.net/10945/1712.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Approved for public release, distribution is unlimited
Orthogonal frequency division multiplexing (OFDM) is being successfully used in numerous applications. It was chosen for IEEE 802.11a wireless local area network (WLAN) standard, and it is being considered for the fourthgeneration mobile communication systems. Along with its many attractive features, OFDM has some principal drawbacks. Sensitivity to frequency errors is the most dominant of these drawbacks. In this thesis, the frequency offset and phase noise effects on OFDM based communication systems are investigated under a variety of channel conditions covering both indoor and outdoor environments. The simulation performance results of the OFDM system for these channels are presented.
Lieutenant Junior Grade, Turkish Navy
48

Li, Qiaochu. "Contribution à la planification d'expériences, à l'estimation et au diagnostic actif de systèmes dynamiques non linéaires : application au domaine aéronautique." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2231/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail de thèse, nous nous focalisons sur le problème de l'intégration d'incertitude à erreurs bornées pour les systèmes dynamiques, dont les entrées et les états initiaux doivent être optimaux afin de réaliser certaines fonctionnalités.Le document comporte 5 chapitres: le premier est une introduction présentant le panorama du travail. Le deuxième chapitre présente les outils de base de l'analyse par intervalle. Le chapitre 3 est dédié à l'estimation d'états et de paramètres. Nous décrivons d'abord une procédure pour résoudre un système d'équations différentielles ordinaires avec l'aide de cet outil. Ainsi, une estimation des états à partir des conditions initiales peut être faite. Les systèmes différentiels considérés dépendent de paramètres qui doivent être estimés. Ce problème inverse pourra être résolu via l'inversion ensembliste. L'approche par intervalle est une procédure déterministe naturelle sans incertitude, tous les résultats obtenus sont garantis. Néanmoins, cette approche n'est pas toujours efficace, ceci est dû au fait que certaines opérations ensemblistes conduisent à des temps de calcul important. Nous présentons quelques techniques, par cela, nous nous plaçons dans un contexte à erreurs bornées permettant d'accélérer cette procédure. Celles-ci utilisent des contracteurs ciblés qui permettent ainsi une réduction de ce temps. Ces algorithmes ont été testés et ont montré leur efficacité sur plusieurs applications: des modèles pharmacocinétiques et un modèle du vol longitudinal d'avion en atmosphère au repos.Le chapitre 4 présente la recherche d'entrées optimales dans le cadre analyse par intervalle, ce qui est une approche originale. Nous avons construit plusieurs critères nouveaux permettant cette recherche. Certains sont intuitifs, d'autres ont nécessité un développement théorique. Ces critères ont été utilisés pour la recherche d'états initiaux optimaux. Des comparaisons ont été faites sur plusieurs applications et l'efficacité de certains critères a été mise en évidence.Dans le chapitre 5, nous appliquons les approches présentées précédemment au diagnostic via l'estimation de paramètres. Nous avons développé un processus complet pour le diagnostic et aussi formulé un processus pour le diagnostic actif avec une application en aéronautique. Le dernier chapitre résume les travaux réalisés dans cette thèse et essaye de donner des perspectives à la recherche.Les algorithmes proposés dans ce travail ont été développés en C++ et utilisent l'environnement du calcul ensembliste
In this work, we will study the uncertainty integration problem in a bounded error context for the dynamic systems, whose input and the initial state have to be optimized so that some other operation could be more easily and better obtained. This work is consisted of 6 chapters : the chapter 1 is an introduction to the general subject which we will discuss about. The chapter 2 represents the basic tools of interval analysis.The chapter 3 is dedicated to state estimation and parameter estimation. We explain at the first, how to solve the ordinary differential equation using interval analysis, which will be the basic tool for the state estimation problem given the initial condition of studied systems. On the other ride, we will look into the parameter estimation problem using interval analysis too. Based on a simple hypothesis over the uncertain variable, we calculate the system's parameter in a bounded error form, considering the operation of intervals as the operation of sets. Guaranteed results are the advantage of interval analysis, but the big time consumption is still a problem for its popularization in many non linear estimation field. We present our founding techniques to accelerate this time consuming processes, which are called contractor in constraint propagation field. At the end of this chapter, différent examples will be the test proof for our proposed methods.Chapter 4 presents the searching for optimal input in the context of interval analysis, which is an original approach. We have constructed several new criteria allow such searching. Some of them are intuitive, the other need a theoretical proof. These criteria have been used for the search of optimal initial States and le better parameter estimation results. The comparisons are done by using multiple applications and the efficiency is proved by evidence.In chapter 5, we applied the approaches proposed above in diagnosis by state estimation and parameter estimation. We have developed a complete procedure for the diagnosis. The optimal input design has been reconsidered in an active diagnosis context. Both state and parameter estimation are implemented using an aeronautical application in literature.The last chapter given a brief summary over the realized subject, some further research directions are given in the perspective section.All the algorithms are written in C/C++ on a Linux based operation system
49

Saleem, Rashid. "Towards an end-to-end multiband OFDM system analysis." Thesis, University of Manchester, 2012. https://www.research.manchester.ac.uk/portal/en/theses/towards-an-endtoend-multiband-ofdm-system-analysis(e711f32f-1ac6-4b48-8f4e-58309c0482d3).html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ultra Wideband (UWB) communication has recently drawn considerable attention from academia and industry. This is mainly owing to the ultra high speeds and cognitive features it could offer. The employability of UWB in numerous areas including but not limited to Wireless Personal Area Networks, WPAN's, Body Area Networks, BAN's, radar and medical imaging etc. has opened several avenues of research and development. However, still there is a disagreement on the standardization of UWB. Two contesting radios for UWB are Multiband Orthogonal Frequency Division Multiplexing (MB-OFDM) and DS-UWB (Direct Sequence Ultra Wideband). As nearly all of the reported research on UWB hasbeen about a very narrow/specific area of the communication system, this thesis looks at the end-to-end performance of an MB-OFDM approach. The overall aim of this project has been to first focus on three different aspects i.e. interference, antenna and propagation aspects of an MB-OFDM system individually and then present a holistic or an end-to-end system analysis finally. In the first phase of the project the author investigated the performance of MB-OFDM system under the effect of his proposed generic or technology non-specific interference. Avoiding the conventional Gaussian approximation, the author has employed an advanced stochastic method. A total of two approaches have been presented in this phase of the project. The first approach is an indirect one which involves the Moment Generating Functions (MGF's) of the Signal-to-Interference-plus-Noise-Ratio (SINR) and the Probability Density Function (pdf) of the SINR to calculate the Average Probabilities of Error of an MB-OFDM system under the influence of proposed generic interference. This approach assumed a specific two-dimensional Poisson spatial/geometric placement of interferers around the victim MB-OFDM receiver. The second approach is a direct approach and extends the first approach by employing a wider class of generic interference. In the second phase of the work the author designed, simulated, prototyped and tested novel compact monopole planar antennas for UWB application. In this phase of the research, compact antennas for the UWB application are presented. These designs employ low-loss Rogers duroid substrates and are fed by Copla-nar Waveguides. The antennas have a proposed feed-line to the main radiating element transition region. This transition region is formed by a special step-generating function-set called the "Inverse Parabolic Step Sequence" or IPSS. These IPSS-based antennas are simulated, prototyped and then tested in the ane-choic chamber. An empirical approach, aimed to further miniaturize IPSS-based antennas, was also derived in this phase of the project. The empirical approach has been applied to derive the design of a further miniaturized antenna. More-over, an electrical miniaturization limit has been concluded for the IPSS-based antennas. The third phase of the project has investigated the effect of the indoor furnishing on the distribution of the elevation Angle-of-Arrival (AOA) of the rays at the receiver. Previously, constant distributions for the AOA of the rays in the elevation direction had been reported. This phase of the research has proposed that the AOA distribution is not fixed. It is established by the author that the indoor elevation AOA distributions depend on the discrete levels of furnishing. A joint time-angle-furnishing channel model is presented in this research phase. In addition, this phase of the thesis proposes two vectorial or any direction AOA distributions for the UWB indoor environments. Finally, the last phase of this thesis is presented. As stated earlier, the overall aim of the project has been to look at three individual aspects of an MB-OFDM system, initially, and then look at the holistic system, finally. Therefore, this final phase of the research presents an end-to-end MB-OFDM system analysis. The interference analysis of the first phase of the project is revisited to re-calculate the probability of bit error with realistic/measured path loss exponents which have been reported in the existing literature. In this method, Gaussian Quadrature Rule based approximations are computed for the average probability of bit error. Last but not the least, an end-to-end or comprehensive system equation/impulse response is presented. The proposed system equation covers more aspects of an indoor UWB system than reported in the existing literature.
50

Стрембіцький, Михайло Олексійович, and Michael Strembitskyy. "Нейромережеві технології підвищення точності вимірювання та керування в системах наведення антен." Thesis, Тернопільський національний технічний університет ім. Івана Пулюя, 2016. http://elartu.tntu.edu.ua/handle/123456789/15664.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Захист відбудеться 30 травня 2016 р. о 12 годині на засіданні спеціалізованої вченої ради К58.052.06 в Тернопільському національному технічному університеті імені Івана Пулюя, 46001, м. Тернопіль, вул. Руська, 56, ауд.56. З дисертацією можна ознайомитися у науково-технічній бібліотеці Тернопільського національного технічного університету імені Івана Пулюя, 46001, м. Тернопіль, вул. Руська, 56.
Дисертацію присвячено вирішенню наукового завдання підвищення точності вимірювання та керування в системах наведення антен із використанням нейромережевих технологій. Проаналізовано тенденції розвитку систем керування наведенням антен. Зроблено висновки про процес налаштування параметрів класичного ПІД- регулятора, який потребує побудови детальної моделі системи керування антени. Проведений огляд підходів до застосування нейронних мереж у моделюванні динамічних систем. Запропоновано використання рекурентної нейронної мережі для побудови контролера наведення антени. Запропоновано метод ідентифікації параметрів антени, реалізація якого потребує подання на вхід тестових сигналів та врахування перехідного процесу. Такий спосіб дозволяє формувати послідовності для проведення навчання нейромережевого контролера наведення антени. Запропонована схема навчання нейронної мережі, яка відтворює інверсну динаміку антени, використана для синтезу контролера керування антеною. Використання модифікованої нейронної мережі Елмана підвищило точність керування антеною порівняно із розрахованим та налаштованим аналітичним методом ПІД-регулятором. На основі отриманих результатів розроблено розподілену систему для керування антеною. Навчання нейромережевого контролера для запропонованої системи проведено шляхом відтворення інверсної динаміки самого об’єкту керування.
Диссертация посвящена решению научной задачи повышения точности измерения и управления в системах наведения антенн с использованием нейросетевых технологий. Проанализированы тенденции развития систем управления для наведения антенн. Сделаны выводы о процессе настройки параметров классического ПИД-регулятора, который требует построения детальной модели системы управления антенны. Проведенный обзор подходов к применению НС в моделировании динамических систем. Предложено использование рекуррентной нейронной сети для построения контроллера наведения антенны. Использование наследуемого нейроуправления не обеспечивает желаемого результата, так как погрешность регулирования не может принимать значения менее чем при управлении с применением эталонной модели. В отличие от наследуемого нейроуправления реализация инверсного нейрокерування не требует использования эталонной модели контроллера управления, а модель для формирования обучающей выборки формируют на основе идентификационной модели объекта управления. Предложен метод идентификации параметров антенны, реализация которого требует представления на вход тестовых сигналов и учета переходного процесса. Такой подход позволил формировать последовательности для проведения обучения нейросетевого контроллера наведения антенны. Предложено использование контроллера на основе рекуррентной НС для наведения антенны, который путем реализации нейросетевого эмулятора обеспечивает отображение инверсной динамики системы наведения антенны, не требует знания точной математической модели управляемого объекта и позволяет избежать громоздких расчетов на стадии описания модели управления. Проведено моделирование работы нейросетевого контроллера наведения антенны и проведение идентификации антенной установки с использованием рекуррентной НС Элмана. Предложен метод выбора способа обучения рекуррентной НС Элмана для наведения антенны, при воспроизведении инверсной динамики управляемого объекта, который обеспечивает уменьшение погрешности при проведении обучения синтезированной нейросетевой структуры. Предложенная схема обучения нейронной сети для воспроизведения инверсной динамики антенны была использована для синтеза контроллера управления антенной. Усовершенствован метод синтеза нейроконтроллера управления антенным устройством на основе рекуррентной нейронной сети Элмана введением глобальных обратных связей, что позволило повысить точность управления при сопровождении антенной системой тестовой траектории на 3,7% по сравнению с рассчитанным и настроенным аналитическим методом ПИД-регулятором. Усовершенствован метод управления вводом антенной установки для распределенной системы, путем использования рекуррентной нейронной сети. Обучена воспроизводить инверсную динамику антенной системы НС-регулятор повысил быстродействие системы на 3%, по сравнению с настроенным ПИД-регулятором. Результаты исследования использованы для нейросетевого контроллера, синтезированного средствами Matlab, и который через последовательный интерфейс считывает текущее значение положения осей антенной системы и производит управляющую действие для сопровождения и наведения АС, может быть использовано для управления и сопровождения по траектории в системах наведения реальных антенн. На основе полученных результатов разработано распределенную систему для управления антенной. Обучение нейросетевого контроллера для предложенной системы проводили, путем воспроизведения инверсной динамики самого объекта управления.
Dissertation is sanctified to the decision of scientific task of increase of efficiency of aiming of antenna complexes of accompaniment of space objects. Basic factors that influence on exactness of management of antenna complexes are analyzed, using of neural network is offered as an identifier of dynamic object that recreates the mechanical part of the antenna system and allows to estimate work of neural network. The use of recurrent neural networks is offered for the management of dynamic objects, in particular by the antenna complexes of accompaniment of space objects. The use of the modified Elman neural network is reasonable for the construction of regulator in the contour of aiming of the aerial system, the optimal number of neurons in the intermediate layer of neural network is defined and an effective algorithm for realization of adjustment of weight and displacements of neural network is offered. A hold neural network training using identity management model of the object, thus forming sequence for inputs and set the system into line output value. Based on developed a distributed system designed to control antenna. Training neural network controller for the proposed system was performed conducted by inverse dynamics of reproduction facility management.

To the bibliography