Dissertations / Theses on the topic 'Deviation estimates'

To see the other types of publications on this topic, follow the link: Deviation estimates.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Deviation estimates.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kim, Tae-Hwan. "The shrinkage least absolute deviation estimator in large samples and its application to the Treynor-Black model /." Diss., Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 1998. http://wwwlib.umi.com/cr/ucsd/fullcit?p9901433.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Du, Roy de Chaumaray Marie. "Estimation statistique des paramètres pour les processus de Cox-Ingersoll-Ross et de Heston." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0299/document.

Full text
Abstract:
Les processus de Cox-Ingersoll-Ross et de Heston jouent un rôle prépondérant dans la modélisation mathématique des cours d’actifs financiers ou des taux d’intérêts. Dans cette thèse, on s’intéresse à l’estimation de leurs paramètres à partir de l’observation en temps continu d’une de leurs trajectoires. Dans un premier temps, on se place dans le cas où le processus CIR est géométriquement ergodique et ne s’annule pas. On établit alors un principe de grandes déviationspour l’estimateur du maximum de vraisemblance du couple des paramètres de dimension et de dérive d’un processus CIR. On établit ensuite un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres d’un processus de Heston, ainsi que pour l’estimateur du maximum de vraisemblance du couple des paramètres d’un processus CIR. Contrairement à ce qui a été fait jusqu’ici dans la littérature,les paramètres sont estimés simultanément. Dans un second temps, on ne se restreint plus au cas où le processus CIR n’atteint jamais zéro et on propose un nouvel estimateur des moindres carrés pondérés pour le quadruplet des paramètres d’un processus de Heston.On établit sa consistance forte et sa normalité asymptotique, et on illustre numériquement ses bonnes performances
The Cox-Ingersoll-Ross process and the Heston process are widely used in financial mathematics for pricing and hedging or to model interest rates. In this thesis, we focus on estimating their parameters using continuous-time observations. Firstly, we restrict ourselves to the most tractable situation where the CIR processis geometrically ergodic and does not vanish. We establish a large deviations principle for the maximum likelihood estimator of the couple of dimensionnal and drift parameters of a CIR process. Then we establish a moderate deviations principle for the maximum likelihood estimator of the four parameters of an Heston process, as well as for the maximum likelihood estimator of the couple of parameters of a CIR process. In contrast to the previous literature, parameters are estimated simultaneously. Secondly, we do not restrict ourselves anymore to the case where the CIR process never reaches zero and we introduce a new weighted least squares estimator for the quadruplet of parameters of an Heston process. We establish its strong consitency and asymptotic normality, and we illustrate numerically its good performances
APA, Harvard, Vancouver, ISO, and other styles
3

Neves, Andrea Marolt Pimenta. "A Comparison of Implied Standard Deviations and Historical Estimates of Volatility During and After the Participation of the British Pound in the ERM." Thesis, Virginia Tech, 1998. http://hdl.handle.net/10919/31593.

Full text
Abstract:
This thesis tests the hypothesis that the qualities of different forecasts of exchange rate volatility depend on the underlying exchange rate regime. By examining the British pound during and after its withdrawal from the European Monetary System (EMS), this analysis compares "backward-looking" historical forecasts of future volatility with the "forward-looking" forecast of volatility reflected in current option prices. Because option implied volatility contains the market's most current expectations about future prices, theory and much previous evidence suggests this should be the superior predictor of future volatility. In contrast to previous research by findings, this study concludes that option implied volatility is not superior. During the time when the pound was in the EMS, implied volatility provided reasonably good forecasts of future volatility. However, after the pound withdrew from the EMS, various statistical measures of historical volatility are found to have greater informational content and predictive power about future actual volatility than implied volatility. In particular, a time series estimate, specifically a GARCH(1,1) model, had the most informational content and predictive power about realized pound volatility, especially in the period following sterling's withdrawal from the EMS.
Master of Arts
APA, Harvard, Vancouver, ISO, and other styles
4

Gendron, Paul John. "A comparison of digital beacon receiver frequency estimators." Thesis, This resource online, 1993. http://scholar.lib.vt.edu/theses/available/etd-09292009-020307/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Echiejile, Faith. "Analysis of Monthly Suspended Sediment Load in Rivers and Streams Using Linear Regression and Similar Precipitation Data." Youngstown State University / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=ysu1629203139818238.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

WEY, SYLVIANE. "1. Un test du nombre de modes. 2. Un estimateur du minimum d'entropie sous une contrainte non lineaire. 3. Un theoreme limite local. Application aux probabilites de deviation d'estimateurs." Paris 6, 1995. http://www.theses.fr/1995PA066234.

Full text
Abstract:
Dans la premiere partie, on presente un test du nombre de modes d'une loi de probabilite reelle, on teste la bimodalite (ou plus) contre l'unimodalite. Dans la seconde partie, un estimateur du minimum d'entropie sous une contrainte non lineaire est obtenu. La convergence et la loi limite de cet estimateur sont etablies. Dans la derniere partie, on obtient un equivalent asymptotique de la probabilite que la somme de n variables aleatoires independantes appartienne a un compact, sous certaines conditions. Ce resultat est utilise pour obtenir des probabilites de deviations pour la moyenne empirique et les m-estimateurs
APA, Harvard, Vancouver, ISO, and other styles
7

Salem, Samir. "Limite de champ moyen et propagation du chaos pour des systèmes de particules avec interaction discontinue." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0387/document.

Full text
Abstract:
Dans cette thèse, on étudie des problèmes de propagation du chaos et de limite de champ moyen pour des modèles relatant le comportement collectif d'individus ou de particules. Particulièrement, on se place dans des cas où l'interaction entre ces individus/particules est discontinue. Le premier travail établit la propagation du chaos pour l'équation de Vlasov-Poisson-Fokker-Planck 1d. Plus précisément, on montre que la distribution des particules évoluant sur la droite des réels interagissant via la fonction signe, converge vers la solution de l'équation de VPFP 1d, en probabilité par des techniques de type grandes déviations, et en espérance par des techniques de loi des grands nombre. Dans le second travail, on étudie une variante du modèle de Cucker-Smale, où le noyau de communication est l'indicatrice d'un cône dont l'orientation dépend de la vitesse de l'individu. Une estimation de stabilité fort-faible en distance de M.K.W. est obtenue, qui implique la limite de champ moyen. Le troisième travail a consisté à introduire de la diffusion en vitesse dans le modèle précédemment cité. Cependant, il faut ajouter une diffusion tronquée afin de préserver un système dans lequel les vitesses restent uniformément bornées. Finalement, on étudie une variante de l'équation d'agrégation où l'interaction entre individus est donnée par un cône dont l'orientation dépend de la position de l'individu. Dans ce cas on peut seulement donner une estimation de stabilité fort-faible en distance $W_\infty$, et le modèle doit être posé dans un domaine borné dans le cas avec diffusion
In this thesis, we study some propagation of chaos and mean field limit problems arising in modelisation of collective behavior of individuals or particles. Particularly, we set ourselves in the case where the interaction between the individuals/particles is discontinuous. The first work establihes the propagation of chaos for the 1d Vlasov-Poisson-Fokker-Planck equation. More precisely, we show that the distribution of particles evolving on the real line and interacting through the sign function converges to the solution of the 1d VPFP equation, in probability by large deviations-like techniques, and in expectation by law of large numbers-like techniques. In the second work, we study a variant of the Cucker-Smale, where the communication weight is the indicatrix function of a cone which orientation depends on the velocity of the individual. Some weak-strong stability estimate in M.K.W. distance is obtained for the limit equation, which implies the mean field limit. The third work consists in adding some diffusion in velocity to the model previously quoted. However one must add some truncated diffusion in order to preserve a system in which velocities remain unifomrly bounded. Finally we study a variant of the aggregation equation where the interaction between individuals is also given by a cone which orientation depends on the position of the individual. In this case we are only able to provide some weak-strong stability estimate in $W_\infty$ distance, and the problem must be set in a bounded domain for the case with diffusion
APA, Harvard, Vancouver, ISO, and other styles
8

Bitseki, Penda Siméon Valère. "Inégalités de déviations, principe de déviations modérées et théorèmes limites pour des processus indexés par un arbre binaire et pour des modèles markoviens." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00822136.

Full text
Abstract:
Le contrôle explicite de la convergence des sommes convenablement normalisées de variables aléatoires, ainsi que l'étude du principe de déviations modérées associé à ces sommes constituent les thèmes centraux de cette thèse. Nous étudions principalement deux types de processus. Premièrement, nous nous intéressons aux processus indexés par un arbre binaire, aléatoire ou non. Ces processus ont été introduits dans la littérature afin d'étudier le mécanisme de la division cellulaire. Au chapitre 2, nous étudions les chaînes de Markov bifurcantes. Ces chaînes peuvent être vues comme une adaptation des chaînes de Markov "usuelles'' dans le cas où l'ensemble des indices à une structure binaire. Sous des hypothèses d'ergodicité géométrique uniforme et non-uniforme d'une chaîne de Markov induite, nous fournissons des inégalités de déviations et un principe de déviations modérées pour les chaînes de Markov bifurcantes. Au chapitre 3, nous nous intéressons aux processus bifurcants autorégressifs d'ordre p (). Ces processus sont une adaptation des processus autorégressifs linéaires d'ordre p dans le cas où l'ensemble des indices à une structure binaire. Nous donnons des inégalités de déviations, ainsi qu'un principe de déviations modérées pour les estimateurs des moindres carrés des paramètres "d'autorégression'' de ce modèle. Au chapitre 4, nous traitons des inégalités de déviations pour des chaînes de Markov bifurcantes sur un arbre de Galton-Watson. Ces chaînes sont une généralisation de la notion de chaînes de Markov bifurcantes au cas où l'ensemble des indices est un arbre de Galton-Watson binaire. Elles permettent dans le cas de la division cellulaire de prendre en compte la mort des cellules. Les hypothèses principales que nous faisons dans ce chapitre sont : l'ergodicité géométrique uniforme d'une chaîne de Markov induite et la non-extinction du processus de Galton-Watson associé. Au chapitre 5, nous nous intéressons aux modèles autorégressifs linéaires d'ordre 1 ayant des résidus corrélés. Plus particulièrement, nous nous concentrons sur la statistique de Durbin-Watson. La statistique de Durbin-Watson est à la base des tests de Durbin-Watson, qui permettent de détecter l'autocorrélation résiduelle dans des modèles autorégressifs d'ordre 1. Nous fournissons un principe de déviations modérées pour cette statistique. Les preuves du principe de déviations modérées des chapitres 2, 3 et 4 reposent essentiellement sur le principe de déviations modérées des martingales. Les inégalités de déviations sont établies principalement grâce à l'inégalité d'Azuma-Bennet-Hoeffding et l'utilisation de la structure binaire des processus. Le chapitre 5 est né de l'importance qu'a l'ergodicité explicite des chaînes de Markov au chapitre 3. L'ergodicité géométrique explicite des processus de Markov à temps discret et continu ayant été très bien étudiée dans la littérature, nous nous sommes penchés sur l'ergodicité sous-exponentielle des processus de Markov à temps continu. Nous fournissons alors des taux explicites pour la convergence sous exponentielle d'un processus de Markov à temps continu vers sa mesure de probabilité d'équilibre. Les hypothèses principales que nous utilisons sont : l'existence d'une fonction de Lyapunov et d'une condition de minoration. Les preuves reposent en grande partie sur la construction du couplage et le contrôle explicite de la queue du temps de couplage.
APA, Harvard, Vancouver, ISO, and other styles
9

Rummens, François. "Systèmes intégrés pour l'hybridation vivant-artificiel : modélisation et conception d'une chaîne de détection analogique adaptative." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0431/document.

Full text
Abstract:
La bioélectronique est un domaine transdisciplinaire qui oeuvre, entre autres, àl’interconnexion entre des systèmes biologiques présentant une activité électrique et le mondede l’électronique. Cette communication avec le vivant implique l’observation de l’activitéélectrique des cellules considérées et nécessite donc une chaine d’acquisition électronique.L’utilisation de Multi/Micro Electrodes Array débouche sur des systèmes devantacquérir un grand nombre de canaux en parallèle, dès lors la consommation etl’encombrement des circuits d’acquisition ont un impact significatif sur la viabilité dusystème destiné à être implanté.Cette thèse propose deux réflexions à propos de ces circuits d’acquisition. Une ces desréflexions a trait aux circuits d’amplification, à leur impédance d’entrée et à leurconsommation ; l’autre concerne un détecteur de potentiels d’action analogique, samodélisation et son optimisation.Ces travaux théoriques ayant abouti à des résultats concrets, un ASIC a été conçu,fabriqué, testé et caractérisé au cours de cette thèse. Cet ASIC à huit canaux comporte doncdes amplificateurs et des détecteurs de potentiels d’action analogiques et constitue le principalapport de ce travail de thèse
Bioelectronics is a transdisciplinary field which develops interconnection devicesbetween biological systems presenting electrical activity and the world of electronics. Thiscommunication with living tissues implies to observe the electrical activity of the cells andtherefore requires an electronic acquisition chain.The use of Multi / Micro Electrode Array leads to systems that acquire a large numberof parallel channels, thus consumption and congestion of acquisition circuits have asignificant impact on the viability of the system to be implanted.This thesis proposes two reflections about these acquisition circuits. One of thesereflections relates to amplifier circuits, their input impedance and consumption; the otherconcerns an analogue action potentials detector, its modeling and optimization.These theoretical work leading to concrete results, an ASIC was designed,manufactured, tested and characterized in this thesis. This eight-channel ASIC thereforeincludes amplifiers and analogue action potentials detector and is the main contribution of thisthesis
APA, Harvard, Vancouver, ISO, and other styles
10

Chinot, Geoffrey. "Localization methods with applications to robust learning and interpolation." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAG002.

Full text
Abstract:
Cette thèse de doctorat est centrée sur l'apprentissage supervisé. L'objectif principal est l'utilisation de méthodes de localisation pour obtenir des vitesses rapides de convergence, c'est-à-dire, des vitesse de l'ordre O(1/n), où n est le nombre d'observations. Ces vitesses ne sont pas toujours atteignables. Il faut imposer des contraintes sur la variance du problème comme une condition de Bernstein ou de marge. Plus particulièrement, dans cette thèse nous tentons d'établir des vitesses rapides de convergences pour des problèmes de robustesse et d'interpolation.On dit qu'un estimateur est robuste si ce dernier présente certaines garanties théoriques, sous le moins d'hypothèses possibles. Cette problématique de robustesse devient de plus en plus populaire. La raison principale est que dans l'ère actuelle du “big data", les données sont très souvent corrompues. Ainsi, construire des estimateurs fiables dans cette situation est essentiel. Dans cette thèse nous montrons que le fameux minimiseur du risque empirique (regularisé) associé à une fonction de perte Lipschitz est robuste à des bruits à queues lourde ainsi qu'a des outliers dans les labels. En revanche si la classe de prédicteurs est à queue lourde, cet estimateur n'est pas fiable. Dans ce cas, nous construisons des estimateurs appelé estimateur minmax-MOM, optimal lorsque les données sont à queues lourdes et possiblement corrompues.En apprentissage statistique, on dit qu'un estimateur interpole, lorsque ce dernier prédit parfaitement sur un jeu d'entrainement. En grande dimension, certains estimateurs interpolant les données peuvent être bons. En particulier, cette thèse nous étudions le modèle linéaire Gaussien en grande dimension et montrons que l'estimateur interpolant les données de plus petite norme est consistant et atteint même des vitesses rapides
This PhD thesis deals with supervized machine learning and statistics. The main goal is to use localization techniques to derive fast rates of convergence, with a particular focus on robust learning and interpolation problems.Localization methods aim to analyze localized properties of an estimator to obtain fast rates of convergence, that is rates of order O(1/n), where n is the number of observations. Under assumptions, such as the Bernstein condition, such rates are attainable.A robust estimator is an estimator with good theoretical guarantees, under as few assumptions as possible. This question is getting more and more popular in the current era of big data. Large dataset are very likely to be corrupted and one would like to build reliable estimators in such a setting. We show that the well-known regularized empirical risk minimizer (RERM) with Lipschitz-loss function is robust with respect to heavy-tailed noise and outliers in the label. When the class of predictor is heavy-tailed, RERM is not reliable. In this setting, we show that minmax Median of Means estimators can be a solution. By construction minmax-MOM estimators are also robust to an adversarial contamination.Interpolation problems study learning procedure with zero training error. Surprisingly, in large dimension, interpolating the data does not necessarily implies over-fitting. We study a high dimensional Gaussian linear model and show that sometimes the over-fitting may be benign
APA, Harvard, Vancouver, ISO, and other styles
11

Paditz, Ludwig. "Über die Annäherung der Verteilungsfunktionen von Summen unabhängiger Zufallsgrößen gegen unbegrenzt teilbare Verteilungsfunktionen unter besonderer Beachtung der Verteilungsfunktion der standardisierten Normalverteilung." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-114206.

Full text
Abstract:
Mit der vorgelegten Arbeit werden neue Beiträge zur Grundlagenforschung auf dem Gebiet der Grenzwertsätze der Wahrscheinlichkeitstheorie vorgelegt. Grenzwertsätze für Summen unabhängiger Zufallsgrößen nehmen unter den verschiedenartigsten Forschungsrichtungen der Wahrscheinlichkeitstheorie einen bedeutenden Platz ein und sind in der heutigen Zeit nicht mehr allein von theoretischem Interesse. In der Arbeit werden Ergebnisse zu neuere Problemstellungen aus der Summationstheorie unabhängiger Zufallsgrößen vorgestellt, die erstmalig in den fünfziger bzw. sechzger Jahren des 20. Jahrhunderts in der Literatur auftauchten und in den zurückliegenden Jahren mit großem Interesse untersucht wurden. International haben sich in der Theorie der Grenzwertsätze zwei Hauptrichtungen herauskristallisiert: Zum Einen die Fragen zur Konvergenzgeschwindigkeit, mit der eine Summenverteilungsfunktion gegen eine vorgegebene Grenzverteilungsfunktion konvergiert, und zum Anderen die Fragen nach einer Fehlerabschätzung zur Grenzverteilungsfunktion bei einem endlichen Summationsprozeß. Zuerst werden unbegrenz teilbare Grenzverteilungsfunktionen betrachtet und dann wird speziell die Normalverteilung als Grenzverteilung diskutiert. Als charakteristische Kenngrößen werden sowohl Momente oder einseitige Momente bzw. Pseudomomente benutzt. Die Fehlerabschätzungen werden sowohl als gleichmäßige wie auch ungleichmäßige Restgliedabschätzungen angegeben, einschließlich einer Beschreibung der dabei auftretenden absoluten Konstanten. Als Beweismethoden werden sowohl die Methode der charakteristischen Funktionen als auch direkte Methoden (Faltungsmethode) weiter ausgebaut. Für eine 1965 von Bikelis angegebene Fehlerabschätzung gelang es nun erstmalig, die auftretende absolute Konstante C mit C=114,667 numerisch abzuschätzen. Weiterhin werden in der Arbeit sogenannte Grenzwertsätze für mittlere Abweichungen studiert. Hier werden erstmalig auch Restgliedabschätzungen abgeleitet. Der in den letzten Jahren zum Beweis von Grenzwertsätzen eingeschlagene Weg über die Faltung von Verteilungsfunktionen erwies sich als bahnbrechend und bestimmte die Entwicklung sowohl der Theorie der Grenzwertsätze für mittlere und große Abweichungen als auch der Untersuchung zu den ungleichmäßigen Abschätzungen im zentralen Grenzwertsatz bedeutend. Die Faltungsmethode stellt in der vorliegenden Dissertationsschrift das hauptsächliche Beweisinstrument dar. Damit gelang es, eine Reihe neuer Ergebnisse zu erhalten und insbesondere mittels der elektronischen Datenverarbeitung neue numerische Resultate zu erhalten
With the presented work new contributions to basic research in the field of limit theorems of probability theory are given. Limit theorems for sums of independent random variables taking on the most diverse lines of research in probability theory an important place in modern times and are no longer only of theoretical interest. In the work results are presented to newer problems on the summation theory of independent random variables, at first time in the fifties and sixties of the 20th Century appeared in the literature and have been studied in the past few years with great interest. International two main directions have emerged in the theory of limit theorems: Firstly, the questions on the convergence speed of a cumulative distribution function converges to a predetermined limit distribution function, and on the other hand the questions on an error estimate for the limit distribution function at a finite summation process. First indefinite divisible limit distribution functions are considered, then the normal distribution is specifically discussed as a limit distribution. As characteristic parameters both moments or one-sided moments or pseudo-moments are used. The error estimates are stated both in uniform as well as non-uniform residual bounds including a description of the occurring absolute constants. Both the method of characteristic functions as well as direct methods (convolution method) can be further expanded as proof methods. Now for the error estimate, 1965 given by Bikelis, was the first time to estimate the appearing absolute constant C with C = 114.667 numerically. Furthermore, in the work of so-called limit theorems for moderate deviations are studied. Here also remainder estimates are derived for the first time. In recent years to the proof of limit theorems the chosen way of the convolution of distribution functions proved to be groundbreaking and determined the development of both the theory of limit theorems for moderate and large deviations as well as the investigation into the nonuniform estimates in the central limit theorem significantly. The convolution method is in the present thesis, the main instrument of proof. Thus, it was possible to obtain a series of results and obtain new numerical results in particular by means of electronic data processing
APA, Harvard, Vancouver, ISO, and other styles
12

Paditz, Ludwig. "Beiträge zur expliziten Fehlerabschätzung im zentralen Grenzwertsatz." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-115105.

Full text
Abstract:
In der Arbeit wird das asymptotische Verhalten von geeignet normierten und zentrierten Summen von Zufallsgrößen untersucht, die entweder unabhängig sind oder im Falle der Abhängigkeit als Martingaldifferenzfolge oder stark multiplikatives System auftreten. Neben der klassischen Summationstheorie werden die Limitierungsverfahren mit einer unendlichen Summationsmatrix oder einer angepaßten Folge von Gewichtsfunktionen betrachtet. Es werden die Methode der charakteristischen Funktionen und besonders die direkte Methode der konjugierten Verteilungsfunktionen weiterentwickelt, um quantitative Aussagen über gleichmäßige und ungleichmäßige Restgliedabschätzungen in zentralen Grenzwertsatz zu beweisen. Die Untersuchungen werden dabei in der Lp-Metrik, 1
In the work the asymptotic behavior of suitably centered and normalized sums of random variables is investigated, which are either independent or occur in the case of dependence as a sequence of martingale differences or a strongly multiplicative system. In addition to the classical theory of summation limiting processes are considered with an infinite summation matrix or an adapted sequence of weighting functions. It will be further developed the method of characteristic functions, and especially the direct method of the conjugate distribution functions to prove quantitative statements about uniform and non-uniform error estimates of the remainder term in central limit theorem. The investigations are realized in the Lp metric, 1
APA, Harvard, Vancouver, ISO, and other styles
13

Wong, Men-Wei, and 翁孟瑋. "Momentum Deviation: A New Volatility Estimator." Thesis, 2016. http://ndltd.ncl.edu.tw/handle/x22f29.

Full text
Abstract:
碩士
國立交通大學
財務金融研究所
104
This study proposes a new volatility Estimator named momentum deviation which combines the advantages of both return and range measure. We develop two different momentum deviation volatility models called GARCH-MD and CARR-MD based on the Generalized Autoregressive Conditional Heteroskedasticity model (GARCH) and the Conditional Autoregressive Range model (CARR) which allows separate dynamic structures for the positive and negative momentum of assets prices. By using stock market index data including AORD, DAX, FTSE, Heng Seng, Nikkei225 and S&P500, we show that the GARCH-MD and the CARR-MD do provide sharper volatility estimates compared with GARCH and CARR model in our out-of-sample volatility forecasts.
APA, Harvard, Vancouver, ISO, and other styles
14

詹為仁. "Global measure of deviation for the difference of kernel density estimators and its applications." Thesis, 2000. http://ndltd.ncl.edu.tw/handle/84029628337598207923.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Liu, Chiu-Ling, and 劉秋玲. "The Comparison on the Estimators of the Process Standard Deviation for the Non-normally Distributed data." Thesis, 2002. http://ndltd.ncl.edu.tw/handle/45109275173396641685.

Full text
Abstract:
碩士
義守大學
工業管理學系
90
It has become more important to monitor the whole process effectively under the considerations of the economical factors and complicated manufacturing processes. The statistical approaches are utilized frequently in quality-related issues during the past decades and the standard deviation is a good way to present the characteristics of process variation and dispersion. Encountering a problem, people usually assumed that the data had a behavior of normal distribution. Unfortunately, this is not always true. And the misinterpretations can easily lead to inevitable and unavoidable losses. The objective of this study is to explore the effectiveness of process standard deviations of various non-normal distributions such as the Exponential, Gamma, and Poisson distributions. The estimator model of standard deviation of each distribution was first derived. The random number generator was then employed to verify the validation of the model in order to obtain the most appropriate estimator for the standard deviation of each distribution. Finally, the obtained results were compared to the effectiveness of normal distribution. The results verified that there are significant differences among the efficiency of the four standard deviation estimators when various probability density functions were used. The results of this study are very valuable to the practical usage and can be applied to a non-normal distributed data. Under such a situation, the appropriate estimators would lead to more accurate results and reduce the risk of misinterpretation.
APA, Harvard, Vancouver, ISO, and other styles
16

Gomes, André de Oliveira. "Forward backward stochastic differential equations: existence, uniqueness, a large deviations principle and connections with partial differential equations." Master's thesis, 2011. http://hdl.handle.net/10451/8447.

Full text
Abstract:
Tese de mestrado em Matemática, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2011
We consider Forward Backward Stochastic Differential Equations (FBSDEs for short) with different assumptions on its coefficients. In a first part we present results of existence, uniqueness and dependence upon initial conditions and on the coefficients. There are two main methodologies employed in this study. The first one presented is the Four Step Scheme, which makes very clear the connection of FBSDEs with quasilinear parabolic systems of Partial Differential Equations (PDEs for short). The weakness of this methodology is the smoothness and regularity assumptions recquired on the coefficients of the system, which motivate the employment of Banach`s Fixed Point Theorem in the study of existence and uniqueness results. This classic analytical tool requires less regularity on the coefficients, but gives only local existence of solution in a small time duration. In a second stage, with the help of the previous work with a running-down induction on time, we can assure the existence and uniqueness of solution for the FBSDE problem in global time. The second goal of this work is the study of the assymptotic behaviour of the FBSDEs solutions when the diffusion coefficient of the forward equation is multiplicatively perturbed with a small parameter that goes to zero. This question adresses the problem of the convergence of the classical/viscosity solutions of the quasilinear parabolic system of PDEs associated to the system. When this quasilinear parabolic system of PDEs takes the form of the backward Burgers Equation, the problem is the convergence of the solution when the viscosity parameter goes to zero. To study conveniently this problem with a probabilistic approach , we present a concise survey of the classical Large Deviations Principles and the basics of the so-called "Freidlin-Wentzell Theory". This theory is mainly concerned with the study of the Itô Diffusions with the diffusion term perturbed by a small parameter that converges to zero and the richness of properties of the FBSDEs shows us that (even in a coupled FBSDE system) this approach is a good one, since we can extract for the solutions of the perturbed systems a Large Deviations Principle and state convergence of the perturbed solutions to a solution of a deterministic system of ordinary differential equations.
APA, Harvard, Vancouver, ISO, and other styles
17

Beirão, Fábio Duarte. "Netodyssey: a framework for real-time windowed analysis of network traffic." Master's thesis, 2010. http://hdl.handle.net/10400.6/3718.

Full text
Abstract:
Traffic monitoring and analysis is of critical importance for managing and designing modern computer networks, and constitutes nowadays a very active research field. In most of their studies, researchers use techniques and tools that follow a statistical approach to obtain a deeper knowledge about the traffic behaviour. Network administrators also find great value in statistical analysis tools. Many of those tools return similar metrics calculated for common properties of network packets. This dissertation presents NetOdyssey, a framework for the statistical analysis of network traffic. One of the crucial points of differentiation of NetOdyssey from other analysis frameworks is the windowed analysis philosophy behind NetOdyssey. This windowed analysis philosophy allows researchers who seek for a deeper knowledge about networks, to look at traffic as if looking through a window. This approach is crucial in order to avoid the biasing effects of statistically looking at the traffic as a whole. Small fluctuations and irregularities in the network can now be analyzed, because one is always looking through window which has a fixed size: either in number of observations or in the temporal duration of those observations. NetOdyssey is able to capture live traffic from a network card or from a pre-collected trace, thus allowing for real-time analysis or delayed and repetitive analysis. NetOdyssey has a modular architecture making it possible for researchers with reduced programming capabilities to create analysis modules which can be tweaked and easily shared among those who utilize this framework. These modules were thought so that their implementation is optimized according to the windowed analysis philosophy behind NetOdyssey. This optimization makes the analysis process independent from the size of the analysis window, because it only contemplates the observations coming in and going out of this window. Besides presenting this framework, its architecture and validation, the present Dissertation also presents four different analysis modules: Average and Standard deviation, Entropy, Auto-Correlation and Hurst Parameter estimators. Each of this modules is presented and validated throughout the present dissertation.
Fundação para a Ciência e a Tecnologia (FCT)
APA, Harvard, Vancouver, ISO, and other styles
18

Ouimet, Frédéric. "Extremes of log-correlated random fields and the Riemann zeta function, and some asymptotic results for various estimators in statistics." Thèse, 2019. http://hdl.handle.net/1866/22667.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Paditz, Ludwig. "Beiträge zur expliziten Fehlerabschätzung im zentralen Grenzwertsatz." Doctoral thesis, 1988. https://tud.qucosa.de/id/qucosa%3A26930.

Full text
Abstract:
In der Arbeit wird das asymptotische Verhalten von geeignet normierten und zentrierten Summen von Zufallsgrößen untersucht, die entweder unabhängig sind oder im Falle der Abhängigkeit als Martingaldifferenzfolge oder stark multiplikatives System auftreten. Neben der klassischen Summationstheorie werden die Limitierungsverfahren mit einer unendlichen Summationsmatrix oder einer angepaßten Folge von Gewichtsfunktionen betrachtet. Es werden die Methode der charakteristischen Funktionen und besonders die direkte Methode der konjugierten Verteilungsfunktionen weiterentwickelt, um quantitative Aussagen über gleichmäßige und ungleichmäßige Restgliedabschätzungen in zentralen Grenzwertsatz zu beweisen. Die Untersuchungen werden dabei in der Lp-Metrik, 1In the work the asymptotic behavior of suitably centered and normalized sums of random variables is investigated, which are either independent or occur in the case of dependence as a sequence of martingale differences or a strongly multiplicative system. In addition to the classical theory of summation limiting processes are considered with an infinite summation matrix or an adapted sequence of weighting functions. It will be further developed the method of characteristic functions, and especially the direct method of the conjugate distribution functions to prove quantitative statements about uniform and non-uniform error estimates of the remainder term in central limit theorem. The investigations are realized in the Lp metric, 1

APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!