Letteratura scientifica selezionata sul tema "Probabilités – Moindres carrés"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Probabilités – Moindres carrés".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Probabilités – Moindres carrés"

1

Poret, Pierre. "Un modèle estimé de demande de capital en déséquilibre dans l’industrie français". Recherches économiques de Louvain 54, n. 4 (1988): 409–21. http://dx.doi.org/10.1017/s077045180008341x.

Testo completo
Abstract (sommario):
RésuméCet article présente une estimation économétrique de 1961 à 1986 des probabilités que l’industrie française se soit trouvée respectivement en régime keynesien et en régime de profit. Un modèle de demande de capital en déséquilibre a été testé par les moindres carrés non linéaires, en supposant que les probabilités d’apparition des régimes suivaient une loi logistique. La contrainte keynesienne de demande est mesurée par les anticipations de demande tirées des enquêtes de conjoncture. De 1975 à 1982, l’investissement industriel aurait été limité principalement par l’insuffisance des profits. De 1983 à 1986, en moyenne, l’équilibre des contraintes de demande et de profit serait rétabli.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Dunia, Mastaki Jean. "Facteurs Déterminants l’attractivité des Investissements Directs Etrangers en RDC’". British Journal of Multidisciplinary and Advanced Studies 3, n. 2 (15 dicembre 2022): 47–62. http://dx.doi.org/10.37745/bjmas.2022.0061.

Testo completo
Abstract (sommario):
Cet article a poursuivi l’objectif d’identifier les facteurs d’attractivité des IDE en RD Congo de 1990 à 2020,En tenant compte des variables de la performance économique comme le PIB, les variable de l’instabilité macroéconomique comme l’inflation et le chômage, ainsi que les variable de la qualité des institution comme : l’indice de perception de la corruption et l’indice de la dépendance politique. Après analyse des données par la méthode de moindre carré ordinaire, nous avons obtenu les résultats selon les quel ; le PIB, l’inflation et chômage n’ont aucun impact sur l’attractivité des IDE car leurs probabilité sont supérieur à 0.05. Seuls les variables liées à la qualité des institutions ont un effet sur les IDE
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Carta, Lynn, e David Carta. "Nematode specific gravity profiles and applications to flotation extraction and taxonomy". Nematology 2, n. 2 (2000): 201–10. http://dx.doi.org/10.1163/156854100508935.

Testo completo
Abstract (sommario):
AbstractA technique is described that refines the standard sugar flotation procedure used to isolate nematodes from their surroundings. By centrifuging nematodes in a number of increasing specific gravity solutions and plotting the fraction floating, the cumulative probability distribution of the population’s specific gravity is generated. By assuming normality, the population mean, μ, and standard deviation, σ, are found by a nonlinear least squares procedure. These density parameters along with their error covariance matrix may be used as a taxonomic physical character. A chi-squared test is derived for comparing populations. Mean and standard deviation pairs (μ, σ) were found for the specific gravities of the adult stage of the plant parasites Pratylenchus agilis (1.068, 0.017), P. scribneri (1.073, 0.028), P. penetrans (1.058, 0.008) and the bacterial-feeder Caenorhabditis elegans (1.091, 0.016). La technique exposée affine le procédure standard par flottation au sucre utilisée pour séparer les nématodes de leur milieu. La centrifugation des nématodes dans une série de solutions de densités spécifiques et la mise en diagramme de la valeur de la fraction surnageante permettent de connaître le répartition de la probabilité cumulée de la densité spécifique de la population en cause. La normalité étant supposée, la moyenne de la population, μ, et la déviation standard, σ, sont calculées par la méthode des moindres carrés non linéaires. Ces paramètres relatifs à la densité ainsi que leur matrice de co-variance d’erreur peuvent être utilisés en taxinomie comme caractère physique. Un test chi2 en est dérivé pour comparer les populations entre elles. Des données en paires — moyenne (μ) et écart-type (σ) — ont été définies pour les densités des adultes des espèces phytoparasites Pratylenchus agilis (1,068; 0,017), P. scribneri (1,073; 0,028), P. penetrans (1,058; 0,008), ainsi que pour l’espèce bactérivore Caenorhabditis elegans (1,091; 0,016).
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Probabilités – Moindres carrés"

1

Techené, Jean-Jacques. "Logique des moindres-carrés et inférence statistique". Pau, 1994. http://www.theses.fr/1994PAUU3011.

Testo completo
Abstract (sommario):
La méthode de moindres-carrés (ainsi nommée par Legendre dès 1805) n'est autre, en langage mathématique moderne, que la minimisation d'une forme quadratique, ou plus généralement d'une famille de formes quadratiques, sur un espace vectoriel réel E sous contraintes convexes. L'optimalité de ses solutions (en divers sens) constitue une question de tout premier plan dans des domaines extrêmement variés, notamment en statistique. Jusqu'ici la manière quasi-exclusive d'aborder les principaux problèmes d'inférence statistique sur les modèles linéaires de régression (estimation de Gauss-Markov, exhaustivité et totalité, recherche d'estimateurs linéaires admissibles), est matricielle car elle est considérée comme immédiatement opérationnelle pour des raisons évidentes de calcul. Or, il est manifeste que tous ces problèmes ont un réel fondement géométrique que l'approche matricielle ne peut correctement prendre en compte car, notamment, les fondements structurels ne sont jamais précisés. Dans cette thèse, nous montrons comment la logique des moindres-carrés s'inscrit, en dimension finie, dans le cadre de la géométrie affine par le recours à des outils mathématiques performants (produits tensoriels, génération des cônes convexes, théorème de Hahn-Banach, et repose sur un théorème fondamental de projection. En effet, la forme quadratique à minimiser engendre dans l'espace sur lequel elle est définie une structure géométrique satisfaisante pour décrire avec précision les solutions. En statistique, les aspects fondamentaux de l'estimation linéaire sont alors mieux appréhendés et la plupart des résultats connus sous une approche matricielle sont décrits et étendus par des démonstrations appropriées à un cadre convenable. Nous apportons une large contribution à la théorie de l'admissibilité en approximation quadratique d'applications linéaires et par la, à l'étude de la structure de l'ensemble des estimateurs linéaires ou affines admissibles d'une application linéaire identifiable relativement à un modèle de Gauss-Markov
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Fathallah, Hamdi. "Théorèmes limites pour des martingales vectorielles en temps continu et applications statistiques". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00586949.

Testo completo
Abstract (sommario):
Cette thèse se compose de trois parties. Dans la première partie, en utilisant les théorèmes limites par moyennisation logarithmique pour des martingales continues en temps continu, on construit un estimateur du couple $(\theta,\sigma^{2})$ pour un modèle autorégressif gaussien stable à temps continu et on montre que cet estimateur est asymptotiquement distribué comme un couple de variables aléatoires gaussiennes indépendantes quelle que soit la loi de l'\état initial $X_{0}$. La deuxième partie est consacrée à établir des résultats autour du théorème limite presque-sûre pour des martingales vectorielles quasi-continues à gauche en temps continu et à croissance explosive ou mixte. On applique les résultats obtenus au modèle d'Ornstein-Uhlenbeck bivarié utilisé en modélisation biologique et en mathématiques financières. Dans la dernière partie, on établit pour l'estimateur des moindres carrés $\hat{\theta}$ de $\theta$ d'un modèle autorégressif gaussien à temps continu non nécessairement stable, un théorème limite centrale presque-sûre (TLCPS), une loi forte quadratique associée au TLCPS et un théorème de la limite centrale logarithmique. Dans le cas stable, on propose d'utiliser l'estimateur des moindres carrés pondéré $\tilde{\theta}$ de $\theta$ pour améliorer les vitesses de convergence logarithmique dans les théorèmes obtenus. Dans le cas instable, on établit, pour l'estimateur des moindres carrés $\hat{\theta}$, les mêmes type de propriétés asymptotiques avec une vitesse de convergence arithmétique.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Fathallah, Hamdi. "Théorèmes limites pour des martingales vectorielles en temps continu et applications statistiques". Phd thesis, Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0003.

Testo completo
Abstract (sommario):
Cette thèse se compose de trois chapitres. Dans le premierchapitre, en utilisant les théorèmes limites par moyennisationlogarithmique pour des martingales continues en temps continu, onconstruit un estimateur du couple \theta,\sigma^{2}) pour unmodèle autorégressif gaussien stable à temps continu et on montreque cet estimateur est asymptotiquement distribué comme un couplede variables al\éatoires gaussiennes ind\épendantes quelle que soitla loi de l'état initial _{0}. Le second chapitre est consacréà établir des résultats autour du théorème limitepresque-sûre pour des martingales vectorielles quasi-continues àgauche en temps continu et à croissance explosive ou mixte. Onapplique les résultats obtenus au modèle d'Ornstein-Uhlenbeckbivarié utilisé en modélisation biologique et en math\ématiquesfinancières. Dans le dernier chapitre, on établit pourl'estimateur des moindres carrés \hat{\theta} de \theta d'unmodéle autorégressif gaussien à temps continu non nécessairementstable, un TLCPS, une loi forte quadratique associée au TLCPS et unthéorème de la limite centrale logarithmique. Dans le cas stable,on propose d'utiliser l'estimateur des moindres carrés pondérés\tilde{\theta} de \theta pour améliorer les vitesses deconvergences logarithmique dans les théorèmes obtenus. Dans le casinstable, on établit pour l'estimateur des moindres carrés\hat{\theta}, le m\^eme type de propriétés asymptotiques avecune vitesse de convergence arithmétique
This thesis consists of three chapters. In the first chapter, for astable gaussian autoregressive model in continuous time, by anaveraging method we construct an estimator of the couple (\theta,\sigma^2) without discretization of the observed process. Thisestimator is shown to be asymptotically distributed as a couple ofindependent gaussian random variables for any given initial state X_0 is. In the second chapter, we establish several results aroundthe almost-sure central limit theorem for a quasi-left continuousvector martingale with explosive and mixed growth. We employ theobtained results in order to complete the existing literature onconvergence rates in the parameter estimation problem for abivariate Ornstein-Uhlenbeck model frequently used in mathematicalfinance and biological modeling. In the last chapter, for a gaussianautoregressive model in continuous time, we establish for theleast-square estimate \hat{\theta} of\theta, an almost-surecentral limit theorem (ASCLT), a quadratic strong law associatedwith ASCLT (QSL) and a logarithmic central limit theorem (LCLT). Instable case, we suggest using the weight least-square estimate\tilde{\theta} of\theta to improve a logarithmic convergencerates in the obtained theorems. In unstable case, we establish forthe least-square estimate \hat{\theta} of \theta, the same typeof asymptotic properties with an arithmetical convergence rates
Gli stili APA, Harvard, Vancouver, ISO e altri
4

McPhee, Hamish. "Algorithme d'échelle de temps autonome et robuste pour un essaim de nanosatellites". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP094.

Testo completo
Abstract (sommario):
Un nouvel algorithme est proposé et validé pour générer une échelle de temps robuste. Prévu pour une utilisation dans un essaim de nanosatellites, l'Autonomous Time Scale using the Student's T-distribution (ATST) peut traiter les anomalies subies par les horloges et les liens inter-satellites dans un environnement hostile. Les types d'anomalies traités incluent les sauts de phase, les sauts de fréquence, un bruit de mesure élevé dans certains liens et les données manquantes. En prenant la moyenne pondérée des résidus contenus dans l'équation de l'échelle de temps de base (BTSE), la contribution des satellites avec des mesures anormales est réduite pour la génération de l'échelle de temps. Les poids attribués à chaque horloge sont basés sur l'hypothèse que les résidus suivent la loi de Student.La performance de l'algorithme ATST est équivalente à celle de l'algorithme AT1 oracle, qui est une version de l'échelle de temps AT1 avec la capacité de détecter parfaitement toutes les anomalies dans des données simulées. Bien que l'algorithme n'ait pas de méthode de détection explicite, l'ATST affiche toujours un niveau de robustesse comparable à celui d'un détecteur parfait. Cependant, l'ATST est conçu pour un essaim avec de nombreuses horloges de types homogènes et est limité par une complexité numérique élevée. De plus, les anomalies sont toutes traitées de la même manière sans distinction entre les différents types d'anomalies. Malgré ces limitations identifiées, le nouvel algorithme représente une contribution prometteuse dans le domaine des échelles de temps grâce à la robustesse atteinte.Une méthode de traitement des horloges ajoutées ou retirées de l'ensemble est également proposée dans cette thèse en conjonction avec l'ATST. Cette méthode préserve la continuité de phase et de fréquence de l'échelle de temps en attribuant un poids nul aux horloges pertinentes lorsque le nombre total d'horloges est modifié. Un estimateur des moindres carrés (Least Squares, LS) est présenté pour montrer comment les mesures des liens inter-satellites peuvent être traitées en amont pour réduire le bruit de mesure et en même temps remplacer les mesures manquantes. L'estimateur LS peut être utilisé avec une méthode de détection qui élimine les mesures anormales, puis l'estimateur LS remplace les mesures supprimées par les estimations correspondantes.Cette thèse examine également l'estimation optimale de l'estimateur du maximum de vraisemblance (MLE) pour les paramètres des lois de probabilités à queues lourdes : précisément la loi de Student et la loi des mélanges gaussiens. Les améliorations obtenues en supposant correctement ces lois par rapport à l'hypothèse de la loi gaussienne sont démontrées avec les bornes de Cramér-Rao mal spécifiées (MCRB). Le MCRB dérivé confirme que les lois à queues lourdes sont meilleures pour l'estimation de la moyenne en présence de valeurs aberrantes. L'estimation des paramètres des lois à queues lourdes nécessite au moins 25 horloges pour obtenir l'erreur minimale, c'est-à-dire que l'estimateur atteigne l'efficacité asymptotique. Cette méthodologie pourra nous aider à analyser d'autres types d'anomalies suivant des lois différentes.Des propositions pour des pistes de recherche futures incluent le traitement des limitations de l'algorithme ATST concernant les types et le nombre d'horloges. Une nouvelle moyenne pour attribuer les poids en utilisant le machine learning est envisageable grâce à la compréhension des résidus du BTSE. Les anomalies transitoires peuvent être mieux traitées par le machine learning ou même avec un estimateur robuste de la fréquence des horloges sur une fenêtre de données passées. Cela est intéressant à explorer et à comparer à l'algorithme ATST, qui est proposé pour des anomalies instantanées
A new robust time scale algorithm, the Autonomous Time scale using the Student's T-distribution (ATST), has been proposed and validated using simulated clock data. Designed for use in a nanosatellite swarm, ATST addresses phase jumps, frequency jumps, anomalous measurement noise, and missing data by making a weighted average of the residuals contained in the Basic Time Scale Equation (BTSE). The weights come from an estimator that assumes the BTSE residuals are modeled by a Student's t-distribution.Despite not detecting anomalies explicitly, the ATST algorithm performs similarly to a version of the AT1 time scale that detects anomalies perfectly in simulated data. However, ATST is best for homogeneous clock types, requires a high number of clocks, adds computational complexity, and cannot necessarily differentiate anomaly types. Despite these identified limitations the robustness achieved is a promising contribution to the field of time scale algorithms.The implementation of ATST includes a method that maintains phase and frequency continuity when clocks are removed or reintroduced into the ensemble by resetting appropriate clock weights to zero. A Least Squares (LS) estimator is also presented to pre-process inter-satellite measurements, reducing noise and estimating missing data. The LS estimator is also compatible with anomaly detection which removes anomalous inter-satellite measurements because it can replace the removed measurements with their estimates.The thesis also explores optimal estimation of parameters of two heavy-tailed distributions: the Student's t and Bimodal Gaussian mixture. The Misspecified Cramér Rao Bound (MCRB) confirms that assuming heavy-tailed distributions handles outliers better compared to assuming a Gaussian distribution. We also observe that at least 25 clocks are required for asymptotic efficiency when estimating the mean of the clock residuals. The methodology also aids in analyzing other anomaly types fitting different distributions.Future research proposals include addressing ATST's limitations with diverse clock types, mitigating performance loss with fewer clocks, and exploring robust time scale generation using machine learning to weight BTSE residuals. Transient anomalies can be targeted using machine learning or even a similar method of robust estimation of clock frequencies over a window of past data. This is interesting to research and compare to the ATST algorithm that is instead proposed for instantaneous anomalies
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Bitseki, Penda Siméon Valère. "Inégalités de déviations, principe de déviations modérées et théorèmes limites pour des processus indexés par un arbre binaire et pour des modèles markoviens". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00822136.

Testo completo
Abstract (sommario):
Le contrôle explicite de la convergence des sommes convenablement normalisées de variables aléatoires, ainsi que l'étude du principe de déviations modérées associé à ces sommes constituent les thèmes centraux de cette thèse. Nous étudions principalement deux types de processus. Premièrement, nous nous intéressons aux processus indexés par un arbre binaire, aléatoire ou non. Ces processus ont été introduits dans la littérature afin d'étudier le mécanisme de la division cellulaire. Au chapitre 2, nous étudions les chaînes de Markov bifurcantes. Ces chaînes peuvent être vues comme une adaptation des chaînes de Markov "usuelles'' dans le cas où l'ensemble des indices à une structure binaire. Sous des hypothèses d'ergodicité géométrique uniforme et non-uniforme d'une chaîne de Markov induite, nous fournissons des inégalités de déviations et un principe de déviations modérées pour les chaînes de Markov bifurcantes. Au chapitre 3, nous nous intéressons aux processus bifurcants autorégressifs d'ordre p (). Ces processus sont une adaptation des processus autorégressifs linéaires d'ordre p dans le cas où l'ensemble des indices à une structure binaire. Nous donnons des inégalités de déviations, ainsi qu'un principe de déviations modérées pour les estimateurs des moindres carrés des paramètres "d'autorégression'' de ce modèle. Au chapitre 4, nous traitons des inégalités de déviations pour des chaînes de Markov bifurcantes sur un arbre de Galton-Watson. Ces chaînes sont une généralisation de la notion de chaînes de Markov bifurcantes au cas où l'ensemble des indices est un arbre de Galton-Watson binaire. Elles permettent dans le cas de la division cellulaire de prendre en compte la mort des cellules. Les hypothèses principales que nous faisons dans ce chapitre sont : l'ergodicité géométrique uniforme d'une chaîne de Markov induite et la non-extinction du processus de Galton-Watson associé. Au chapitre 5, nous nous intéressons aux modèles autorégressifs linéaires d'ordre 1 ayant des résidus corrélés. Plus particulièrement, nous nous concentrons sur la statistique de Durbin-Watson. La statistique de Durbin-Watson est à la base des tests de Durbin-Watson, qui permettent de détecter l'autocorrélation résiduelle dans des modèles autorégressifs d'ordre 1. Nous fournissons un principe de déviations modérées pour cette statistique. Les preuves du principe de déviations modérées des chapitres 2, 3 et 4 reposent essentiellement sur le principe de déviations modérées des martingales. Les inégalités de déviations sont établies principalement grâce à l'inégalité d'Azuma-Bennet-Hoeffding et l'utilisation de la structure binaire des processus. Le chapitre 5 est né de l'importance qu'a l'ergodicité explicite des chaînes de Markov au chapitre 3. L'ergodicité géométrique explicite des processus de Markov à temps discret et continu ayant été très bien étudiée dans la littérature, nous nous sommes penchés sur l'ergodicité sous-exponentielle des processus de Markov à temps continu. Nous fournissons alors des taux explicites pour la convergence sous exponentielle d'un processus de Markov à temps continu vers sa mesure de probabilité d'équilibre. Les hypothèses principales que nous utilisons sont : l'existence d'une fonction de Lyapunov et d'une condition de minoration. Les preuves reposent en grande partie sur la construction du couplage et le contrôle explicite de la queue du temps de couplage.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Tsafack-Teufack, Idriss. "Essays in functional econometrics and financial markets". Thesis, 2020. http://hdl.handle.net/1866/24837.

Testo completo
Abstract (sommario):
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter.
In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.
Gli stili APA, Harvard, Vancouver, ISO e altri

Libri sul tema "Probabilités – Moindres carrés"

1

J, Miller Alan. Subset selection in regression. London [England]: Chapman and Hall, 1990.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

1944-, Hilbe Joseph M., a cura di. Quasi-least squares regression. Boca Raton: CRC Press, Taylor & Francis Group, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Moser, Barry Kurt. Linear models: A mean model approach. San Diego: Academic Press, 1996.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Subset selection in regression. 2a ed. Boca Raton: Chapman & Hall/CRC, 2002.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Hilbe, Joseph M., e Justine Shults. Quasi-Least Squares Regression. Taylor & Francis Group, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Hilbe, Joseph M., e Justine Shults. Quasi-Least Squares Regression. Taylor & Francis Group, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia