Thèses sur le sujet « Covariance matrice »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Covariance matrice.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Covariance matrice ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Valeyre, Sébastien. « Modélisation fine de la matrice de covariance/corrélation des actions ». Thesis, Sorbonne Paris Cité, 2019. https://tel.archives-ouvertes.fr/tel-03180258.

Texte intégral
Résumé :
Une nouvelle méthode a été mise en place pour débruiter la matrice de corrélation des rendements des actions en se basant sur une analyse par composante principale sous contrainte enexploitant les données financières. Des portefeuilles, nommés "Fundamental Maximum variance portfolios", sont construits pour capturer de manière optimale un style de risque défini par un critère financier ("Book", "Capitalization",etc.). Les vecteurs propres sous contraintes de la matrice de corrélation, qui sont des combinaisons linéaires de ces portefeuilles, sont alors étudiés. Grâce à cette méthode, plusieurs faits stylisés de la matrice ont été mis en évidence dont: i) l'augmentation des premières valeurs propres avec l'échelle de temps de 1 minute à plusieurs mois semble suivre la même loi pour toutes les valeurs propres significatives avec deux régimes; ii) une loi _universelle_ semble gouverner la composition de tous les portefeuilles "Maximum variance". Ainsi selon cette loi, les poids optimaux seraient directement proportionnels au classement selon le critère financier étudié; iii) la volatilité de la volatilité des portefeuilles "Maximum Variance_" qui ne sont pas orthogonaux, su_rait à expliquer une grande partie de la diffusion de la matrice de corrélation; iv) l'effet de levier (augmentation de la première valeur propre avec la baisse du marché) n'existe que pour le premier mode et ne se généralise pas aux autres facteurs de risque. L'effet de levier sur les beta, sensibilité des actions avec le "market mode", rend les poids du premier vecteur propre variables
A new methodology has been introduced to clean the correlation matrix of single stocks returns based on a constrained principal component analysis using financial data. Portfolios were introduced, namely "Fundamental Maximum Variance Portfolios", to capture in an optimal way the risks defined by financial criteria ("Book", "Capitalization", etc.). The constrained eigenvectors of the correlation matrix, which are the linear combination of these portfolios, are then analyzed. Thanks to this methodology, several stylized patterns of the matrix were identified: i) the increase of the first eigenvalue with a time scale from 1 minute to several months seems to follow the same law for all the significant eigenvalues with 2 regimes; ii) a universal law seems to govern the weights of all the "Maximum variance" portfolios, so according to that law, the optimal weights should be proportional to the ranking based on the financial studied criteria; iii) the volatility of the volatility of the "Maximum Variance" portfolios, which are not orthogonal, could be enough to explain a large part of the diffusion of the correlation matrix; iv) the leverage effect (increase of the first eigenvalue with the decline of the stock market) occurs only for the first mode and cannot be generalized for other factors of risk. The leverage effect on the beta, which is the sensitivity of stocks with the market mode, makes variable theweights of the first eigenvector
Styles APA, Harvard, Vancouver, ISO, etc.
2

Zgheib, Rania. « Tests non paramétriques minimax pour de grandes matrices de covariance ». Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1078/document.

Texte intégral
Résumé :
Ces travaux contribuent à la théorie des tests non paramétriques minimax dans le modèle de grandes matrices de covariance. Plus précisément, nous observons $n$ vecteurs indépendants, de dimension $p$, $X_1,ldots, X_n$, ayant la même loi gaussienne $mathcal {N}_p(0, Sigma)$, où $Sigma$ est la matrice de covariance inconnue. Nous testons l'hypothèse nulle $H_0:Sigma = I$, où $I$ est la matrice identité. L'hypothèse alternative est constituée d'un ellipsoïde avec une boule de rayon $varphi$ autour de $I$ enlevée. Asymptotiquement, $n$ et $p$ tendent vers l'infini. La théorie minimax des tests, les autres approches considérées pour le modèle de matrice de covariance, ainsi que le résumé de nos résultats font l'objet de l'introduction.Le deuxième chapitre est consacré aux matrices de covariance $Sigma$ de Toeplitz. Le lien avec le modèle de densité spectrale est discuté. Nous considérons deux types d'ellipsoïdes, décrits par des pondérations polynomiales (dits de type Sobolev) et exponentielles, respectivement.Dans les deux cas, nous trouvons les vitesses de séparation minimax. Nous établissons également des équivalents asymptotiques exacts de l'erreur minimax de deuxième espèce et de l'erreur minimax totale. La procédure de test asymptotiquement minimax exacte est basée sur une U-statistique d'ordre 2 pondérée de façon optimale.Le troisième chapitre considère une hypothèse alternative de matrices de covariance pas nécessairement de Toeplitz, appartenant à un ellipsoïde de type Sobolev de paramètre $alpha$. Nous donnons des équivalents asymptotiques exacts des erreurs minimax de 2ème espèce et totale. Nous proposons une procédure de test adaptative, c-à-d libre de $alpha$, quand $alpha$ appartient à un compact de $(1/2, + infty)$.L'implémentation numérique des procédures introduites dans les deux premiers chapitres montrent qu'elles se comportent très bien pour de grandes valeurs de $p$, en particulier elles gagnent beaucoup sur les méthodes existantes quand $p$ est grand et $n$ petit.Le quatrième chapitre se consacre aux tests adaptatifs dans un modèle de covariance où les observations sont incomplètes. En effet, chaque coordonnée du vecteur est manquante de manière indépendante avec probabilité $1-a$, $ ain (0,1)$, où $a$ peut tendre vers 0. Nous traitons ce problème comme un problème inverse. Nous établissons ici les vitesses minimax de séparation et introduisons de nouvelles procédures adaptatives de test. Les statistiques de test définies ici ont des poids constants. Nous considérons les deux cas: matrices de Toeplitz ou pas, appartenant aux ellipsoïdes de type Sobolev
Our work contributes to the theory of non-parametric minimax tests for high dimensional covariance matrices. More precisely, we observe $n$ independent, identically distributed vectors of dimension $p$, $X_1,ldots, X_n$ having Gaussian distribution $mathcal{N}_p(0,Sigma)$, where $Sigma$ is the unknown covariance matrix. We test the null hypothesis $H_0 : Sigma =I$, where $I$ is the identity matrix. The alternative hypothesis is given by an ellipsoid from which a ball of radius $varphi$ centered in $I$ is removed. Asymptotically, $n$ and $p$ tend to infinity. The minimax test theory, other approaches considered for testing covariance matrices and a summary of our results are given in the introduction.The second chapter is devoted to the case of Toeplitz covariance matrices $Sigma$. The connection with the spectral density model is discussed. We consider two types of ellipsoids, describe by polynomial weights and exponential weights, respectively. We find the minimax separation rate in both cases. We establish the sharp asymptotic equivalents of the minimax type II error probability and the minimax total error probability. The asymptotically minimax test procedure is a U-statistic of order 2 weighted by an optimal way.The third chapter considers alternative hypothesis containing covariance matrices not necessarily Toeplitz, that belong to an ellipsoid of parameter $alpha$. We obtain the minimax separation rate and give sharp asymptotic equivalents of the minimax type II error probability and the minimax total error probability. We propose an adaptive test procedure free of $alpha$, for $alpha$ belonging to a compact of $(1/2, + infty)$.We implement the tests procedures given in the previous two chapters. The results show their good behavior for large values of $p$ and that, in particular, they gain significantly over existing methods for large $p$ and small $n$.The fourth chapter is dedicated to adaptive tests in the model of covariance matrices where the observations are incomplete. That is, each value of the observed vector is missing with probability $1-a$, $a in (0,1)$ and $a$ may tend to 0. We treat this problem as an inverse problem. We establish the minimax separation rates and introduce new adaptive test procedures. Here, the tests statistics are weighted by constant weights. We consider ellipsoids of Sobolev type, for both cases : Toeplitz and non Toeplitz matrices
Styles APA, Harvard, Vancouver, ISO, etc.
3

Mahot, Mélanie. « Estimation robuste de la matrice de covariance en traitement du signal ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00906143.

Texte intégral
Résumé :
De nombreuses applications de traitement de signal nécessitent la connaissance de la matrice de covariance des données reçues. Lorsqu'elle n'est pas directement accessible, elle est estimée préalablement à l'aide de données d'apprentissage. Traditionnellement, le milieu est considéré comme gaussien. L'estimateur du maximum de vraisemblance est alors la sample covariance matrix (SCM). Cependant, dans de nombreuses applications, notamment avec l'arrivée des techniques haute résolution, cette hypothèse n'est plus valable. De plus, même en milieu gaussien, il s'avère que la SCM peut-être très influencée par des perturbations (données aberrantes, données manquantes, brouilleurs...) sur les données. Dans cette thèse nous nous proposons de considérer un modèle plus général, celui des distributions elliptiques. Elles permettent de représenter de nombreuses distributions et des campagnes de mesures ont montré leur bonne adéquation avec les données réelles, dans de nombreuses applications telles que le radar ou l'imagerie hyperspectrale. Dans ce contexte, nous proposons des estimateurs plus robustes et plus adaptés : les M-estimateurs et l'estimateur du point-fixe (FPE). Leurs performances et leur robustesse sont étudiées et comparées à celles de la SCM. Nous montrons ainsi que dans de nombreuses applications, ces estimateurs peuvent remplacer très simplement la SCM, avec de meilleures performances lorsque les données sont non-gaussiennes et des performances comparables à la SCM lorsque les données sont gaussiennes. Les résultats théoriques développés dans cette thèse sont ensuite illustrés à partir de simulations puis à partir de données réels dans le cadre de traitements spatio-temporels adaptatifs.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ricci, Sophie. « Assimilation variationnelle océanique : modélisation multivariée de la matrice de covariance d'erreur d'ébauche ». Toulouse 3, 2004. http://www.theses.fr/2004TOU30048.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Haddouche, Mohamed Anis. « Estimation d'une matrice d'échelle ». Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR058/document.

Texte intégral
Résumé :
Beaucoup de résultats sur l’estimation d’une matrice d’échelle en analyse multidimensionnelle sont obtenus sous l’hypothèse de normalité (condition sous laquelle il s’agit de la matrice de covariance). Or il s’avère que, dans des domaines tels que la gestion de portefeuille en finance, cette hypothèse n’est pas très appropriée. Dans ce cas, la famille des distributions à symétrie elliptique, qui contient la distribution gaussienne, est une alternative intéressante. Nous considérons dans cette thèse le problème d’estimation de la matrice d’échelle Σ du modèle additif Yp_m = M + E, d’un point de vue de la théorie de la décision. Ici, p représente le nombre de variables, m le nombre d’observations, M une matrice de paramètres inconnus de rang q < p et E un bruit aléatoire de distribution à symétrie elliptique, avec une matrice de covariance proportionnelle à Im x Σ. Ce problème d’estimation est abordé sous la représentation canonique de ce modèle où la matrice d’observation Y est décomposée en deux matrices, à savoir, Zq x p qui résume l’information contenue dans M et une matrice Un x p, où n = m - q, qui résume l’information suffisante pour l’estimation de Σ. Comme les estimateurs naturels de la forme Σa = a S (où S = UT U et a est une constante positive) ne sont pas de bons estimateurs lorsque le nombre de variables p et le rapport p=n sont grands, nous proposons des estimateurs alternatifs de la forme ^Σa;G = a(S + S S+G(Z; S)) où S+ est l’inverse de Moore-Penrose de S (qui coïncide avec l’inverse S-1 lorsque S est inversible). Nous fournissons des conditions sur la matrice de correction SS+G(Z; S) telles que ^Σa;G améliore^Σa sous le coût quadratique L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² et sous une modification de ce dernier, à savoir le coût basé sur les données LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²). Nous adoptons une approche unifiée des deux cas où S est inversible et S est non inversible. À cette fin, une nouvelle identité de type Stein-Haff et un nouveau calcul sur la décomposition en valeurs propres de S sont développés. Notre théorie est illustrée par une grande classe d’estimateurs orthogonalement invariants et par un ensemble de simulations
Numerous results on the estimation of a scale matrix in multivariate analysis are obtained under Gaussian assumption (condition under which it is the covariance matrix). However in such areas as Portfolio management in finance, this assumption is not well adapted. Thus, the family of elliptical symmetric distribution, which contains the Gaussian distribution, is an interesting alternative. In this thesis, we consider the problem of estimating the scale matrix _ of the additif model Yp_m = M + E, under theoretical decision point of view. Here, p is the number of variables, m is the number of observations, M is a matrix of unknown parameters with rank q < p and E is a random noise, whose distribution is elliptically symmetric with covariance matrix proportional to Im x Σ. It is more convenient to deal with the canonical forme of this model where Y is decomposed in two matrices, namely, Zq_p which summarizes the information contained in M, and Un_p, where n = m - q which summarizes the information sufficient to estimate Σ. As the natural estimators of the form ^Σ a = a S (where S = UT U and a is a positive constant) perform poorly when the dimension of variables p and the ratio p=n are large, we propose estimators of the form ^Σa;G = a(S + S S+G(Z; S)) where S+ is the Moore-Penrose inverse of S (which coincides with S-1 when S is invertible). We provide conditions on the correction matrix SS+G(Z; S) such that ^Σa;G improves over ^Σa under the quadratic loss L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² and under the data based loss LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²).. We adopt a unified approach of the two cases where S is invertible and S is non-invertible. To this end, a new Stein-Haff type identity and calculus on eigenstructure for S are developed. Our theory is illustrated with the large class of orthogonally invariant estimators and with simulations
Styles APA, Harvard, Vancouver, ISO, etc.
6

Ilea, Ioana. « Robust classifcation methods on the space of covariance matrices. : application to texture and polarimetric synthetic aperture radar image classification ». Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0006/document.

Texte intégral
Résumé :
Au cours de ces dernières années, les matrices de covariance ont montré leur intérêt dans de nombreuses applications en traitement du signal et de l'image.Les travaux présentés dans cette thèse se concentrent sur l'utilisation de ces matrices comme descripteurs pour la classification. Dans ce contexte, des algorithmes robustes de classification sont proposés en développant les aspects suivants.Tout d'abord, des estimateurs robustes de la matrice de covariance sont utilisés afin de réduire l'impact des observations aberrantes. Puis, les distributions Riemannienne Gaussienne et de Laplace, ainsi que leur extension au cas des modèles de mélange, sont considérés pour la modélisation des matrices de covariance.Les algorithmes de type k-moyennes et d'espérance-maximisation sont étendus au cas Riemannien pour l'estimation de paramètres de ces lois : poids, centroïdes et paramètres de dispersion. De plus, un nouvel estimateur du centroïde est proposé en s'appuyant sur la théorie des M-estimateurs : l'estimateur de Huber. En outre,des descripteurs appelés vecteurs Riemannien de Fisher sont introduits afin de modéliser les images non-stationnaires. Enfin, un test d'hypothèse basé sur la distance géodésique est introduit pour réguler la probabilité de fausse alarme du classifieur.Toutes ces contributions sont validées en classification d'images de texture, de signaux du cerveau, et d'images polarimétriques radar simulées et réelles
In the recent years, covariance matrices have demonstrated their interestin a wide variety of applications in signal and image processing. The workpresented in this thesis focuses on the use of covariance matrices as signatures forrobust classification. In this context, a robust classification workflow is proposed,resulting in the following contributions.First, robust covariance matrix estimators are used to reduce the impact of outlierobservations, during the estimation process. Second, the Riemannian Gaussianand Laplace distributions as well as their mixture model are considered to representthe observed covariance matrices. The k-means and expectation maximization algorithmsare then extended to the Riemannian case to estimate their parameters, thatare the mixture's weight, the central covariance matrix and the dispersion. Next,a new centroid estimator, called the Huber's centroid, is introduced based on thetheory of M-estimators. Further on, a new local descriptor named the RiemannianFisher vector is introduced to model non-stationary images. Moreover, a statisticalhypothesis test is introduced based on the geodesic distance to regulate the classification false alarm rate. In the end, the proposed methods are evaluated in thecontext of texture image classification, brain decoding, simulated and real PolSARimage classification
Styles APA, Harvard, Vancouver, ISO, etc.
7

Hadded, Aouchiche Linda. « Localisation à haute résolution de cibles lentes et de petite taille à l’aide de radars de sol hautement ambigus ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S008/document.

Texte intégral
Résumé :
Cette thèse a pour objectif d’améliorer la détection de cibles lentes et de faible réflectivité dans le cas de radars de sol Doppler pulsés à fréquence de récurrence intermédiaire. Ces radars, hautement ambigus en distance et en vitesse, émettent de façon consécutive des trains d’impulsions de périodes de récurrence différentes, afin de lever les ambiguïtés.L’émission successive de trains d’impulsions de courtes durées conduit à une faible capacité de séparation sur l’axe Doppler. Par conséquent, les objets lents de faible réflectivité, comme les drones, sont difficiles à distinguer du fouillis de sol. A l’issue du traitement Doppler conventionnel qui vise à éliminer les échos de fouillis, les performances de détection de ces cibles sont fortement atténuées. Pour palier à ce problème, nous avons développé une nouvelle chaîne de traitement 2D distance/Doppler pour les radars à fréquence de récurrence intermédiaire. Celle-ci s’appuie, en premier lieu, sur un algorithme itératif permettant d’exploiter la diversité temporelle entre les trains d’impulsions émis, afin de lever les ambiguïtés en distance et en vitesse et de détecter les cibles rapides exo-fouillis. La détection des cibles lentes endo-fouillis est ensuite réalisée à l’aide d’un détecteur adaptatif. Une nouvelle approche, permettant d’associer les signaux issus de rafales de caractéristiques différentes pour l’estimation de la matrice de covariance, est utilisée en vue d’optimiser les performances de détection. Les différents tests effectués sur données simulées et réelles pour évaluer les traitements développés et la nouvelle chaîne de traitement, ont montré l’intérêt de ces derniers
The aim of this thesis is to enhance the detection of slow-moving targets with low reflectivity in case of ground-based pulse Doppler radars operating in intermediate pulse repetition frequency. These radars are highly ambiguous in range and Doppler. To resolve ambiguities, they transmit successively short pulse trains with different pulse repetition intervals. The transmission of short pulse trains results in a poor Doppler resolution. As consequence, slow-moving targets with low reflectivity, such as unmanned aerial vehicles, are buried into clutter returns. One of the main drawbacks of the classical Doppler processing of intermediate pulse repetition frequency pulse Doppler radars is the low detection performance of small and slowly-moving targets after ground clutter rejection. In order to address this problem, a two-dimensional range / Dopper processing chain including new techniques is proposed in this thesis. First, an iterative algorithm allows to exploit transmitted pulse trains temporal diversity to resolve range and Doppler ambiguities and detect fast, exo-clutter, targets. The detection of slow, endo-clutter, targets is then performed by an adaptive detection scheme. It uses a new covariance matrix estimation approach allowing the association of pulse trains with different characteristics in order to enhance detection performance. The different tests performed on simulated and real data to evaluate the proposed techniques and the new processing chain have shown their effectiveness
Styles APA, Harvard, Vancouver, ISO, etc.
8

Balvay, Daniel. « Qualité de la modélisation en imagerie dynamique de la microcirculation avec injection d'un agent de contraste : nouveaux critères et applications en multimodalité ». Paris 11, 2005. http://www.theses.fr/2005PA112147.

Texte intégral
Résumé :
L'imagerie dynamique de microcirculation dispose d'un potentiel important pour l'étude de nombreuses pathologies in vivo, en complément à l'imagerie conventionnelle. Or pour obtenir des cartes de paramètres microcirculatoires à partir des données dynamiques, une modélisation doit être effectuée. Les méthodes actuelles pour vérifier la qualité de cette modélisation n'étant pas satisfaisantes, le potentiel de l'imagerie dynamique en est fortement réduit. Nous montrons ici que pour étudier la modélisation, tant qualitativement que quantitativement, il est nécessaire de traiter séparément les questions de qualité d'ajustement et de robustesse,. Nous avons mis au point une nouvelle méthode, basée sur l'autocorrélation, pour estimer les amplitudes des composantes corrélées et non corrélées des signaux. Cette méthode nous a permis de corriger le coefficient de corrélation R² et la matrice de covariance, et ainsi de définir de nouveaux critères de fiabilité et une matrice de covariance corrigée pour les remplacer. L'amélioration apportée par les nouveaux critères est démontrée sur simulations et sur données IRM dynamiques réelles. La matrice de covariance corrigée estime la robustesse et la redondance locale des paramètres. Elle peut être calculée conjointement pour compléter les nouveaux critères de fiabilité. Les améliorations apportées par les nouveaux indicateurs doivent faciliter le développement de l'imagerie de la microcirculation. L'intérêt des nouveaux indicateurs est illustré sur un grand panel de données d'imagerie. Ils constituent plus généralement de nouveaux outils de traitement du signal
The microcirculation dynamic imaging could be a relevant imaging when used in addition with more conventional medical imaging. The dynamic data are modeled, pixel by pixel, to provide microcirculation parameters maps. However there is no efficient tool to assess the modeling quality. The relevance of the parametric maps provided by the dynamic imaging is then limited. Here, we show that a qualitative and quantitative study of the modeling quality needs first to distinguish two questions : the quality of the data fits and the robusness for the random noise. To separate the questions, we designed a new autocorrelation based method which is able to estimate the amplitude of both the correlated and not correlated component of a signal. This method allowed us to correct the correlation coefficient R² and the covariance matrix estimation. It allowed us to define new reliability criteria and a corrected covariance matrix to replace the more conventional indicators. It was shown, on simulated data and in MR data, that new reliabily criteria are obviously better than the R² to assess fit quality. The corrected covariance matrix which assess the robustness and the redoundancy can be calculated in addition to the reliability criteria unlike conventional one which is limited to good data fits. Thus the modeling quality is obviously improved by the new indicators. It should improve the clinical use of microcirculation dynamic imaging where guaranties are needed against artefact. The interest of the new criteria is showed on many different dynamic data. More generaly the new indicators appear as new efficient tools for signal analysis
Styles APA, Harvard, Vancouver, ISO, etc.
9

Yanou, Ghislain. « Une étude théorique et empirique des estimateurs de la matrice de variance-covariance pour le choix de portefeuilles ». Paris 1, 2010. http://www.theses.fr/2010PA010044.

Texte intégral
Résumé :
L'objectif de ce travail de recherche est d'étudier d'un point de vue théorique et empirique les estimateurs de la matrice des covariances dans le cadre de la gestion de portefeuille. Après une étude détaillée de la littérature traitant du sujet, dans la deuxième partie, nous introduisons des mesures alternatives des tendances d'une distribution plus robustes que les moments traditionnels appelées L-moments, pouvant s'interpréter comme des espérances de quartile pondérés. Nous proposons une approche de sélection des titres à partir de la matrice des corrélations issues des L-moments et appliquons la théorie de la matrice aléatoire afin de discriminer les valeurs propres contenant du bruit par rapport aux autres valeurs propres censées contenir de l'information. Dans la troisième partie, nous introduisons un objectif de diversification dans le paradigme moyenne-variance et proposons une nouvelle classe de stratégies d'investissement profitant d'un large univers d'investissement, et des positons dans le portefeuille moins extrêmes. Nous proposons également une explication théorique à la mauvaise performance des portefeuilles lorsque les poids sont libres. Dans la quatrième partie, nous nous intéressons au biais de représentativité dont sont sujets les agents lorsque ces derniers utilisent des paramètres estimés dans les modèles et décrivons les implications théoriques sur la matrice des covariances échantillonnées. Dans la cinquième partie, nous nous intéressons au modèle de Black-Litterman en proposant une approche permettant de limiter les pertes de l'investisseur lorsque ses vues sur les futures rentabilités s'avèrent totalement ou partiellement erronées.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Scotta, Juan Pablo. « Amélioration des données neutroniques de diffusion thermique et épithermique pour l'interprétation des mesures intégrales ». Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0213.

Texte intégral
Résumé :
Dans ces travaux de thèse, la diffusion thermique des neutrons pour l’application aux réacteurs à eau légère a été étudiée. Le modèle de loi de diffusion thermique de l’hydrogène lié à la molécule d’eau de la bibliothèque de données nucléaires JEFF-3.1.1 est basée sur des mesures expérimentales réalisées dans les années soixante. La physique de diffusion de neutrons de cette bibliothèque a été comparée à un modèle basé sur les calculs de dynamique moléculaire développé au Centre Atomique de Bariloche (Argentine), à savoir le modèle CAB. L’impact de ces modèles a également été évalué sur le programme expérimental MISTRAL (configurations UOX et MOX) réalisé dans le réacteur de puissance nulle EOLE situé au CEA Cadarache (France). La contribution de la diffusion thermique des neutrons sur l’hydrogène dans l’eau a été quantifiée sur le calcul de la réactivité et sur l’erreur de calcul du coefficient de température isotherme (reactivity temperature Coefficient en anglais - RTC).Pour le réseau UOX, l’écart entre la réactivité calculée à 20 °C avec le modèle CAB et celle du JEFF-3.1.1 est de +90 pcm, tandis que pour le réseau MOX, il est de +170 pcm à cause de la sensibilité élevée de la diffusion thermique pour ce type de combustible. Dans la plage de température de 10 °C à 80 °C, l’erreur de calcul sur le RTC est de -0.27 ± 0.3 pcm/°C avec JEFF-3.1.1 et de +0.05 ± 0.3 pcm/°C avec le modèle CAB pour le réseau UOX. Pour la configuration MOX, il est de -0.98 ± 0.3 pcm/°C et -0.72 ± 0.3 pcm/°C obtenu respectivement avec la bibliothèque JEFF-3.1.1 et avec le modèle CAB. Les résultats montrent l’apport du modèle CAB dans le calcul de ce paramètre de sureté
In the present report it was studied the neutron thermal scattering of light water for reactors application. The thermal scattering law model of hydrogen bounded to the water molecule of the JEFF-3.1.1 nuclear data library is based on experimental measures performed in the sixties. The scattering physics of this latter was compared with a model based on molecular dynamics calculations developed at the Atomic Center in Bariloche (Argentina), namely the CAB model. The impact of these models was evaluated as well on reactor calculations at cold conditions. The selected benchmark was the MISTRAL program (UOX and MOX configurations), carried out in the zero power reactor EOLE of CEA Cadarache (France). The contribution of the neutron thermal scattering of hydrogen in water was quantified in terms of the difference in the calculated reactivity and the calculation error on the isothermal reactivity temperature coefficient (RTC). For the UOX lattice, the calculated reactivity with the CAB model at 20 °C is +90 pcm larger than JEFF-3.1.1, while for the MOX lattice is +170 pcm because of the high sensitivity of thermal scattering to this type of fuels. In the temperature range from 10 °C to 80 °C, the calculation error on the RTC is -0.27 ± 0.3 pcm/°C and +0.05 ± 0.3 pcm/°C obtained with JEFF-3.1.1 and the CAB model respectively (UOX lattice). For the MOX lattice, is -0.98 ± 0.3 pcm/°C and -0.72 ± 0.3 pcm/°C obtained with the JEFF-3.1.1 library and with the CAB model respectively. The results illustrate the improvement of the CAB model in the calculation of this safety parameter
Styles APA, Harvard, Vancouver, ISO, etc.
11

Spinnato, Juliette. « Modèles de covariance pour l'analyse et la classification de signaux électroencéphalogrammes ». Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4727/document.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le contexte de l’analyse et de la classification de signaux électroencéphalogrammes (EEG) par des méthodes d’analyse discriminante. Ces signaux multi-capteurs qui sont, par nature, très fortement corrélés spatialement et temporellement sont considérés dans le plan temps-fréquence. En particulier, nous nous intéressons à des signaux de type potentiels évoqués qui sont bien représentés dans l’espace des ondelettes. Par la suite, nous considérons donc les signaux représentés par des coefficients multi-échelles et qui ont une structure matricielle électrodes × coefficients. Les signaux EEG sont considérés comme un mélange entre l’activité d’intérêt que l’on souhaite extraire et l’activité spontanée (ou "bruit de fond"), qui est largement prépondérante. La problématique principale est ici de distinguer des signaux issus de différentes conditions expérimentales (classes). Dans le cas binaire, nous nous focalisons sur l’approche probabiliste de l’analyse discriminante et des modèles de mélange gaussien sont considérés, décrivant dans chaque classe les signaux en termes de composantes fixes (moyenne) et aléatoires. Cette dernière, caractérisée par sa matrice de covariance, permet de modéliser différentes sources de variabilité. Essentielle à la mise en oeuvre de l’analyse discriminante, l’estimation de cette matrice (et de son inverse) peut être dégradée dans le cas de grandes dimensions et/ou de faibles échantillons d’apprentissage, cadre applicatif de cette thèse. Nous nous intéressons aux alternatives qui se basent sur la définition de modèle(s) de covariance(s) particulier(s) et qui permettent de réduire le nombre de paramètres à estimer
The present thesis finds itself within the framework of analyzing and classifying electroencephalogram signals (EEG) using discriminant analysis. Those multi-sensor signals which are, by nature, highly correlated spatially and temporally are considered, in this work, in the timefrequency domain. In particular, we focus on low-frequency evoked-related potential-type signals (ERPs) that are well described in the wavelet domain. Thereafter, we will consider signals represented by multi-scale coefficients and that have a matrix structure electrodes × coefficients. Moreover, EEG signals are seen as a mixture between the signal of interest that we want to extract and spontaneous activity (also called "background noise") which is overriding. The main problematic is here to distinguish signals from different experimental conditions (class). In the binary case, we focus on the probabilistic approach of the discriminant analysis and Gaussian mixtures are used, describing in each class the signals in terms of fixed (mean) and random components. The latter, characterized by its covariance matrix, allow to model different variability sources. The estimation of this matrix (and of its inverse) is essential for the implementation of the discriminant analysis and can be deteriorated by high-dimensional data and/or by small learning samples, which is the application framework of this thesis. We are interested in alternatives that are based on specific covariance model(s) and that allow to decrease the number of parameters to estimate
Styles APA, Harvard, Vancouver, ISO, etc.
12

Hariri, Walid. « Contribution à la reconnaissance/authentification de visages 2D/3D ». Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0905/document.

Texte intégral
Résumé :
L’analyse de visages 3D y compris la reconnaissance des visages et des expressions faciales 3D est devenue un domaine actif de recherche ces dernières années. Plusieurs méthodes ont été développées en utilisant des images 2D pour traiter ces problèmes. Cependant, ces méthodes présentent un certain nombre de limitations dépendantes à l’orientation du visage, à l’éclairage, à l’expression faciale, et aux occultations. Récemment, le développement des capteurs d’acquisition 3D a fait que les données 3D deviennent de plus en plus disponibles. Ces données 3D sont relativement invariables à l’illumination et à la pose, mais elles restent sensibles à la variation de l’expression. L’objectif principal de cette thèse est de proposer de nouvelles techniques de reconnaissance/vérification de visages et de reconnaissance d’expressions faciales 3D. Tout d’abord, une méthode de reconnaissance de visages en utilisant des matrices de covariance comme des descripteurs de régions de visages est proposée. Notre méthode comprend les étapes suivantes : le prétraitement et l’alignement de visages, un échantillonnage uniforme est ensuite appliqué sur la surface faciale pour localiser un ensemble de points de caractéristiques. Autours de chaque point, nous extrayons une matrice de covariance comme un descripteur de région du visage. Deux méthodes d’appariement sont ainsi proposées, et différentes distances (géodésiques / non-géodésique) sont appliquées pour comparer les visages. La méthode proposée est évaluée sur troisbases de visages GAVAB, FRGCv2 et BU-3DFE. Une description hiérarchique en utilisant trois niveaux de covariances est ensuite proposée et validée. La deuxième partie de cette thèse porte sur la reconnaissance des expressions faciales 3D. Pour ce faire, nous avons proposé d’utiliser les matrices de covariances avec les méthodes noyau. Dans cette contribution, nous avons appliqué le noyau de Gauss pour transformer les matrices de covariances en espace d’Hilbert. Cela permet d’utiliser les algorithmes qui sont déjà implémentés pour l’espace Euclidean (i.e. SVM) dans cet espace non-linéaire. Des expérimentations sont alors entreprises sur deux bases d’expressions faciales 3D (BU-3DFE et Bosphorus) pour reconnaître les six expressions faciales prototypiques
3D face analysis including 3D face recognition and 3D Facial expression recognition has become a very active area of research in recent years. Various methods using 2D image analysis have been presented to tackle these problems. 2D image-based methods are inherently limited by variability in imaging factors such as illumination and pose. The recent development of 3D acquisition sensors has made 3D data more and more available. Such data is relatively invariant to illumination and pose, but it is still sensitive to expression variation. The principal objective of this thesis is to propose efficient methods for 3D face recognition/verification and 3D facial expression recognition. First, a new covariance based method for 3D face recognition is presented. Our method includes the following steps : first 3D facial surface is preprocessed and aligned. A uniform sampling is then applied to localize a set of feature points, around each point, we extract a matrix as local region descriptor. Two matching strategies are then proposed, and various distances (geodesic and non-geodesic) are applied to compare faces. The proposed method is assessed on three datasetsincluding GAVAB, FRGCv2 and BU-3DFE. A hierarchical description using three levels of covariances is then proposed and validated. In the second part of this thesis, we present an efficient approach for 3D facial expression recognition using kernel methods with covariance matrices. In this contribution, we propose to use Gaussian kernel which maps covariance matrices into a high dimensional Hilbert space. This enables to use conventional algorithms developed for Euclidean valued data such as SVM on such non-linear valued data. The proposed method have been assessed on two known datasets including BU-3DFE and Bosphorus datasets to recognize the six prototypical expressions
Styles APA, Harvard, Vancouver, ISO, etc.
13

Breloy, Arnaud. « Algorithmes d’estimation et de détection en contexte hétérogène rang faible ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN021/document.

Texte intégral
Résumé :
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles
One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data
Styles APA, Harvard, Vancouver, ISO, etc.
14

Allez, Romain. « Chaos multiplicatif Gaussien, matrices aléatoires et applications ». Phd thesis, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00780270.

Texte intégral
Résumé :
Dans ce travail, nous nous sommes intéressés d'une part à la théorie du chaos multiplicatif Gaussien introduite par Kahane en 1985 et d'autre part à la théorie des matrices aléatoires dont les pionniers sont Wigner, Wishart et Dyson. La première partie de ce manuscrit contient une brève introduction à ces deux théories ainsi que les contributions personnelles de ce manuscrit expliquées rapidement. Les parties suivantes contiennent les textes des articles publiés [1], [2], [3], [4], [5] et pré-publiés [6], [7], [8] sur ces résultats dans lesquels le lecteur pourra trouver des développements plus détaillés
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ieng, Sio-Song. « Méthodes robustes pour la détection et le suivi des marquages ». Paris 6, 2004. http://www.theses.fr/2004PA066547.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Chabot, Vincent. « Etude de représentations parcimonieuses des statistiques d'erreur d'observation pour différentes métriques. Application à l'assimilation de données images ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM094/document.

Texte intégral
Résumé :
Les dernières décennies ont vu croître en quantité et en qualité les données satellites. Au fil des ans, ces observations ont pris de plus en plus d'importance en prévision numérique du temps. Ces données sont aujourd'hui cruciales afin de déterminer de manière optimale l'état du système étudié, et ce, notamment car elles fournissent des informations denses et de qualité dansdes zones peu observées par les moyens conventionnels. Cependant, le potentiel de ces séquences d'images est encore largement sous–exploitée en assimilation de données : ces dernières sont sévèrement sous–échantillonnées, et ce, en partie afin de ne pas avoir à tenir compte des corrélations d'erreurs d'observation.Dans ce manuscrit nous abordons le problème d'extraction, à partir de séquences d'images satellites, d'information sur la dynamique du système durant le processus d'assimilation variationnelle de données. Cette étude est menée dans un cadre idéalisé afin de déterminer l'impact d'un bruit d'observations et/ou d'occultations sur l'analyse effectuée.Lorsque le bruit est corrélé en espace, tenir compte des corrélations en analysant les images au niveau du pixel n'est pas chose aisée : il est nécessaire d'inverser la matrice de covariance d'erreur d'observation (qui se révèle être une matrice de grande taille) ou de faire des approximationsaisément inversibles de cette dernière. En changeant d'espace d'analyse, la prise en compte d'une partie des corrélations peut être rendue plus aisée. Dans ces travaux, nous proposons d'effectuer cette analyse dans des bases d'ondelettes ou des trames de curvelettes. En effet, un bruit corréléen espace n'impacte pas de la même manière les différents éléments composants ces familles. En travaillant dans ces espaces, il est alors plus aisé de tenir compte d'une partie des corrélations présentes au sein du champ d'erreur. La pertinence de l'approche proposée est présentée sur différents cas tests.Lorsque les données sont partiellement occultées, il est cependant nécessaire de savoir comment adapter la représentation des corrélations. Ceci n'est pas chose aisée : travailler avec un espace d'observation changeant au cours du temps rend difficile l'utilisation d'approximations aisément inversibles de la matrice de covariance d'erreur d'observation. Dans ces travaux uneméthode permettant d'adapter, à moindre coût, la représentations des corrélations (dans des bases d'ondelettes) aux données présentes dans chaque image est proposée. L'intérêt de cette approche est présenté dans un cas idéalisé
Recent decades have seen an increase in quantity and quality of satellite observations . Over the years , those observations has become increasingly important in numerical weather forecasting. Nowadays, these datas are crucial in order to determine optimally the state of the studied system. In particular, satellites can provide dense observations in areas poorly observed by conventionnal networks. However, the potential of such observations is clearly under--used in data assimilation : in order to avoid the management of observation errors, thinning methods are employed in association to variance inflation.In this thesis, we adress the problem of extracting information on the system dynamic from satellites images data during the variationnal assimilation process. This study is carried out in an academic context in order to quantify the influence of observation noise and of clouds on the performed analysis.When the noise is spatially correlated, it is hard to take into account such correlations by working in the pixel space. Indeed, it is necessary to invert the observation error covariance matrix (which turns out to be very huge) or make an approximation easily invertible of such a matrix. Analysing the information in an other space can make the job easier. In this manuscript, we propose to perform the analysis step in a wavelet basis or a curvelet frame. Indeed, in those structured spaces, a correlated noise does not affect in the same way the differents structures. It is then easier to take into account part of errors correlations : a suitable approximation of the covariance matrix is made by considering only how each kind of element is affected by a correlated noise. The benefit of this approach is demonstrated on different academic tests cases.However, when some data are missing one has to address the problem of adapting the way correlations are taken into account. This work is not an easy one : working in a different observation space for each image makes the use of easily invertible approximate covariance matrix very tricky. In this work a way to adapt the diagonal hypothesis of the covariance matrix in a wavelet basis, in order to take into account that images are partially hidden, is proposed. The interest of such an approach is presented in an idealised case
Styles APA, Harvard, Vancouver, ISO, etc.
17

Taylor, Abigael. « Traitements SAR multivoies pour la détection de cibles mobiles ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN048/document.

Texte intégral
Résumé :
Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP). Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP)
Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles. Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles
Styles APA, Harvard, Vancouver, ISO, etc.
18

Grisel, Richard. « Détectabilité du nombre de sources en sonar ». Rouen, 1987. http://www.theses.fr/1987ROUES011.

Texte intégral
Résumé :
Etude et expérimentation sur signaux réels d'une méthode non linéaire de détection de sources. La méthode consiste à calculer le rang de la matrice des covariances d'espérance conditionnelle, celui-ci donnant le nombre de sources. Réalisation de la carte d'interface spécialisée pour l'acquisition des signaux
Styles APA, Harvard, Vancouver, ISO, etc.
19

Cissokho, Youssouph. « Extremal Covariance Matrices ». Thesis, Université d'Ottawa / University of Ottawa, 2018. http://hdl.handle.net/10393/37124.

Texte intégral
Résumé :
The tail dependence coefficient (TDC) is a natural tool to describe extremal dependence. Estimation of the tail dependence coefficient can be performed via empirical process theory. In case of extremal independence, the limit degenerates and hence one cannot construct a test for extremal independence. In order to deal with this issue, we consider an analog of the covariance matrix, namely the extremogram matrix, whose entries depend only on extremal observations. We show that under the null hypothesis of extremal independence and for finite dimension d ≥ 2, the largest eigenvalue of the sample extremogram matrix converges to the maximum of d independent normal random variables. This allows us to conduct an hypothesis testing for extremal independence by means of the asymptotic distribution of the largest eigenvalue. Simulation studies are performed to further illustrate this approach.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Morvan, Marie. « Modèles de régression pour données fonctionnelles hétérogènes : application à la modélisation de données de spectrométrie dans le moyen infrarouge ». Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S097.

Texte intégral
Résumé :
Dans de nombreux domaines d’application, les données récoltées correspondent à des courbes. Ce travail se concentre sur l’analyse de courbes de spectrométrie, constituées de plusieurs centaines de variables ordonnées, correspondant chacune à une valeur d’absorbance associée aux nombres d’ondes mesurés. Dans ce contexte, une méthode de traitement statistique automatique est développée, avec pour objectif la construction d’un modèle de prédiction prenant en compte l’hétérogénéité des données observées. Plus particulièrement, un modèle de diagnostic d’une maladie métabolique est établi à partir de courbes mesurées sur des individus provenant d’une population constituée de profils de patients différents. La procédure développée permet de sélectionner l’information pertinente sous forme de portions de courbes discriminantes, puis de construire de façon simultanée une partition des données et un modèle de prédiction parcimonieux grâce à un mélange de régressions pénalisées adapté aux données fonctionnelles. Ces données étant complexes, tout comme le cas d’application étudié, une méthode permettant une meilleure compréhension et une meilleure visualisation des interactions entre les portions de courbes a par ailleurs été développée. Cette méthode se base sur l’étude de la structure des matrices de covariance, avec pour but de faire ressortir des blocs de dépendances entre intervalles de variables. Un cas d’application médicale est utilisé pour présenter la méthode et les résultats, et permet l’utilisation d’outils de visualisation spécifiques
In many application fields, data corresponds to curves. This work focuses on the analysis of spectrometric curves, composed of hundreds of ordered variables that corresponds to the absorbance values measured for each wavenumber. In this context, an automatic statistical procedure is developped, that aims at building a prediction model taking into account the heterogeneity of the observed data. More precisely, a diagnosis tool is built in order to predict a metabolic disease from spectrometric curves measured on a population composed of patients with differents profile. The procedure allows to select portions of curves relevant for the prediction and to build a partition of the data and a sparse predictive model simultaneously, using a mixture of penalized regressions suitable for functional data. In order to study the complexity of the data and of the application case, a method to better understand and display the interactions between variables is built. This method is based on the study of the covariance matrix structure, and aims to highlight the dependencies between blocks of variables. A medical example is used to present the method and results, and allows the use of specific visualization tools
Styles APA, Harvard, Vancouver, ISO, etc.
21

Février, Maxime. « Liberté infinitésimale et modèles matriciels déformés ». Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1252/.

Texte intégral
Résumé :
Le travail effectué dans cette thèse concerne les domaines de la théorie des matrices aléatoires et des probabilités libres, dont on connaît les riches connexions depuis le début des années 90. Les résultats s'organisent principalement en deux parties : la première porte sur la liberté infinitésimale, la seconde sur les matrices aléatoires déformées. Plus précisément, on jette les bases d'une théorie combinatoire de la liberté infinitésimale, au premier ordre d'abord, telle que récemment introduite par Belinschi et Shlyakhtenko, puis aux ordres supérieurs. On en donne un cadre simple et général, et on introduit des fonctionnelles de cumulants non-croisés, caractérisant la liberté infinitésimale. L'accent est mis sur la combinatoire et les idées d'essence différentielle qui sous-tendent cette notion. La seconde partie poursuit l'étude des déformations de modèles matriciels, qui a été ces dernières années un champ de recherche très actif. Les résultats présentés sont originaux en ce qu'ils concernent des perturbations déterministes Hermitiennes de rang non nécessairement fini de matrices de Wigner et de Wishart. En outre, un apport de ce travail est la mise en lumière du lien entre la convergence des valeurs propres de ces modèles et les probabilités libres, plus particulièrement le phénomène de subordination pour la convolution libre. Ce lien donne une illustration de la puissance des idées des probabilités libres dans les problèmes de matrices aléatoires
This thesis is about Random Matrix Theory and Free Probability whose strong relation is known since the early nineties. The results mainly organize in two parts : one on infinitesimal freeness, the other on deformed matrix models. More precisely, a combinatorial theory of first order infinitesimal freeness, as introduced by Belinschi and Shlyakhtenko, is developed and generalized to higher order. We give a simple and general framework and we introduce infinitesimal non-crossing cumulant functionals, providing a characterization of infinitesimal freeness. The emphasis is put on combinatorics and on the essentially differential ideas underlying this notion. The second part carries further the study of deformations of matrix models, which has been a very active field of research these past years. The results we present are original in the sense they deal with non-necessarily finite rank deterministic Hermitian perturbations of Wigner and Wishart matrices. Moreover, these results shed light on the link between convergence of eigenvalues of deformed matrix models and free probability, particularly the subordination phenomenon related to free convolution. This link gives an illustration of the power of free probability ideas in random matrix problems
Styles APA, Harvard, Vancouver, ISO, etc.
22

Phan, Duy Nhat. « Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension ». Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0235/document.

Texte intégral
Résumé :
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes
These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
Styles APA, Harvard, Vancouver, ISO, etc.
23

Fevrier, Maxime. « Liberté infinitésimale et modèles matriciels déformés ». Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00567800.

Texte intégral
Résumé :
Le travail effectué dans cette thèse concerne les domaines de la théorie des matrices aléatoires et des probabilités libres, dont on connaît les riches connexions depuis le début des années 90. Les résultats s'organisent principalement en deux parties : la première porte sur la liberté infinitésimale, la seconde sur les matrices aléatoires déformées. Plus précisément, on jette les bases d'une théorie combinatoire de la liberté infinitésimale, au premier ordre d'abord, telle que récemment introduite par Belinschi et Shlyakhtenko, puis aux ordres supérieurs. On en donne un cadre simple et général, et on introduit des fonctionnelles de cumulants non-croisés, caractérisant la liberté infinitésimale. L'accent est mis sur la combinatoire et les idées d'essence différentielle qui sous-tendent cette notion. La seconde partie poursuit l'étude des déformations de modèles matriciels, qui a été ces dernières années un champ de recherche très actif. Les résultats présentés sont originaux en ce qu'ils concernent des perturbations déterministes Hermitiennes de rang non nécessairement fini de matrices de Wigner et de Wishart. En outre, un apport de ce travail est la mise en lumière du lien entre la convergence des valeurs propres de ces modèles et les probabilités libres, plus particulièrement le phénomène de subordination pour la convolution libre. Ce lien donne une illustration de la puissance des idées des probabilités libres dans les problèmes de matrices aléatoires.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Kang, Xiaoning. « Contributions to Large Covariance and Inverse Covariance Matrices Estimation ». Diss., Virginia Tech, 2016. http://hdl.handle.net/10919/82150.

Texte intégral
Résumé :
Estimation of covariance matrix and its inverse is of great importance in multivariate statistics with broad applications such as dimension reduction, portfolio optimization, linear discriminant analysis and gene expression analysis. However, accurate estimation of covariance or inverse covariance matrices is challenging due to the positive definiteness constraint and large number of parameters, especially in the high-dimensional cases. In this thesis, I develop several approaches for estimating large covariance and inverse covariance matrices with different applications. In Chapter 2, I consider an estimation of time-varying covariance matrices in the analysis of multivariate financial data. An order-invariant Cholesky-log-GARCH model is developed for estimating the time-varying covariance matrices based on the modified Cholesky decomposition. This decomposition provides a statistically interpretable parametrization of the covariance matrix. The key idea of the proposed model is to consider an ensemble estimation of covariance matrix based on the multiple permutations of variables. Chapter 3 investigates the sparse estimation of inverse covariance matrix for the highdimensional data. This problem has attracted wide attention, since zero entries in the inverse covariance matrix imply the conditional independence among variables. I propose an orderinvariant sparse estimator based on the modified Cholesky decomposition. The proposed estimator is obtained by assembling a set of estimates from the multiple permutations of variables. Hard thresholding is imposed on the ensemble Cholesky factor to encourage the sparsity in the estimated inverse covariance matrix. The proposed method is able to catch the correct sparse structure of the inverse covariance matrix. Chapter 4 focuses on the sparse estimation of large covariance matrix. Traditional estimation approach is known to perform poorly in the high dimensions. I propose a positive-definite estimator for the covariance matrix using the modified Cholesky decomposition. Such a decomposition provides a exibility to obtain a set of covariance matrix estimates. The proposed method considers an ensemble estimator as the center" of these available estimates with respect to Frobenius norm. The proposed estimator is not only guaranteed to be positive definite, but also able to catch the underlying sparse structure of the true matrix.
Ph. D.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Bidon, Stéphanie. « Estimation et détection en milieu non-homogène : application au traitement spatio-temporel adaptatif ». Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7737/1/bidon.pdf.

Texte intégral
Résumé :
Pour un radar aéroporté, la détection de cibles nécessite, de par la nature du fouillis de sol, la mise en place d'un filtre spatio-temporel adaptatif (STAP). Les détecteurs basés sur l'hypothèse d'un milieu homogène sont souvent mis à mal dans un environnement réel, où les caractéristiques du fouillis peuvent varier significativement en distance et en angle. Diverses stratégies existent pour contrer les effets délétères de l'hétérogénéité. La thèse propose d'approfondir deux de ces stratégies. Plus précisément, un nouveau modèle d'environnement est présenté dans un contexte Bayésien : il intègre à la fois une relation originale d'hétérogénéité et de la connaissance a priori. De nouveaux estimateurs de la matrice de covariance du bruit ainsi que de nouveaux détecteurs sont calculés à partir de ce modèle. Ils sont étudiés de manière théorique et par simulations numériques. Les résultats obtenus montrent que le modèle proposé permet d'intégrer de manière intelligente l'information a priori dans le processus de détection.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Guigues, Vincent. « Inférence statistique pour l'optimisation stochastique : applications en finance et en gestion de production ». Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00098287.

Texte intégral
Résumé :
L'objet de cette thèse est de modéliser et analyser des problèmes d'optimisation stochastique et de proposer des méthodes de résolution pour ces problèmes.
Dans une première partie, on considère des problèmes d'allocation d'actifs se formulant comme des problèmes d'optimisation convexes. La fonction coût et les contraintes dépendent d'un paramètre multidimensionnel inconnu. On montre, sous l'hypothèse d'homogénéité temporelle locale pour le processus des rendements, que l'on peut construire des approximations du problème original se servant d'une estimation adaptative du paramètre inconnu. La précision du problème approché est fournie. Cette méthode a été appliquée sur les problèmes VaR et de Markowitz et l'on présente les résultats de simulations numériques sur des données réelles et simulées. On propose ensuite une analyse de sensibilité pour une classe de problèmes quadratiques dont on déduit une analyse de sensibilité du problème de Markowitz. Pour ce problème, on propose alors une calibration stable de la matrice de covariance et des contreparties robustes.
La deuxième partie porte sur l'analyse de problèmes de gestion de production et en particulier le problème de gestion de production électrique. Nous proposons de nouvelles modélisations pour ce problème et des moyens pour les mettre en oeuvre. L'un des modèles conduit à une résolution par décomposition par les prix. Dans ce cas, on montre comment calculer la fonction duale par programmation dynamique. On explique enfin comment dans chaque cas, une stratégie de gestion est mise en place. Les différentes méthodes de gestion sont comparées sur des données réelles et simulées.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Avanesov, Valeriy. « Dynamics of high-dimensional covariance matrices ». Doctoral thesis, Humboldt-Universität zu Berlin, 2018. http://dx.doi.org/10.18452/18801.

Texte intégral
Résumé :
Wir betrachten die Detektion und Lokalisation von plötzlichen Änderungen in der Kovarianzstruktur hochdimensionaler zufälliger Daten. Diese Arbeit schlägt zwei neuartige Ansätze für dieses Problem vor. Die Vorgehensweise beinhaltet im Wesentlichen Verfahren zum Test von Hypothesen, welche ihrerseits die Wahl geeigneter kritischer Werte erfordern. Dafür werden Kalibrierungsschemata vorgeschlagen, die auf unterschiedlichen Nichtstandard-Bootstrap-Verfahren beruhen. Der eine der beiden Ansätze verwendet Techniken zum Schätzen inverser Kovarianzmatrizen und ist durch Anwendungen in der neurowissenschaftlichen Bildgebung motiviert. Eine Beschränkung dieses Ansatzes besteht in der für die Schätzung der „Precision matrix“ wesentlichen Voraussetzung ihrer schwachen Besetztheit. Diese Bedingung ist im zweiten Ansatz nicht erforderlich. Die Beschreibung beider Ansätze wird gefolgt durch ihre theoretische Untersuchung, welche unter schwachen Voraussetzungen die vorgeschlagenen Kalibrierungsschemata rechtfertigt und die Detektion von Änderungen der Kovarianzstruktur gewährleistet. Die theoretischen Resultate für den ersten Ansatz basieren auf den Eigenschaften der Verfahren zum Schätzen der Präzisionsmatrix. Wir können daher die adaptiven Schätzverfahren für die Präzisionsmatrix streng rechtfertigen. Alle Resultate beziehen sich auf eine echt hochdimensionale Situation (Dimensionalität p >> n) mit endlichem Stichprobenumfang. Die theoretischen Ergebnisse werden durch Simulationsstudien untermauert, die durch reale Daten aus den Neurowissenschaften oder dem Finanzwesen inspiriert sind.
We consider the detection and localization of an abrupt break in the covariance structure of high-dimensional random data. The study proposes two novel approaches for this problem. The approaches are essentially hypothesis testing procedures which requires a proper choice of a critical level. In that regard calibration schemes, which are in turn different non-standard bootstrap procedures, are proposed. One of the approaches relies on techniques of inverse covariance matrix estimation, which is motivated by applications in neuroimaging. A limitation of the approach is a sparsity assumption crucial for precision matrix estimation which the second approach does not rely on. The description of the approaches are followed by a formal theoretical study justifying the proposed calibration schemes under mild assumptions and providing the guaranties for the break detection. Theoretical results for the first approach rely on the guaranties for inference of precision matrix procedures. Therefore, we rigorously justify adaptive inference procedures for precision matrices. All the results are obtained in a truly high-dimensional (dimensionality p >> n) finite-sample setting. The theoretical results are supported by simulation studies, most of which are inspired by either real-world neuroimaging or financial data.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Ibrahim, Jean-Paul. « Grandes déviations pour des modèles de percolation dirigée et des matrices aléatoires ». Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00577242.

Texte intégral
Résumé :
Durant cette thèse, on a étudié essentiellement deux modèles aléatoires qui, malgré leur différence apparente, cachent un intérêt commun et mettent en évidence des phénomènes mathématiques et physiques communs. Le modèle de percolation de dernier passage dans le plan (last-passage directed percolation model ou LPP) est un modèle de percolation orientée bidimensionnel. Il fait partie d'une vaste liste de modèles de croissance et sert à modéliser des phénomènes dans des domaines variés. Dans la première partie de cette thèse, on s'est intéressé essentiellement aux propriétés de grandes déviations de ce modèle. On a également examiné les fluctuations transversales du même modèle. Toute cette étude a été faite dans le cadre d'un rectangle fin. Parallèlement aux travaux sur les modèles de croissance, on a étudié un autre sujet qui émerge également du monde de la Physique : celui des matrices aléatoires. Ces matrices se divisent en deux catégories principales introduites à une vingtaine d'années d'intervalle : les matrices de covariance empirique et les matrices de Wigner. L'étendue du champ d'application de ces matrices est tellement vaste qu'on peut les rencontrer presque dans toutes les filières scientifiques : probabilité, combinatoire, physique atomique, statistique multivariée, télécommunication théorie des représentations, etc. Parmi les objets mathématiques les plus étudiés, on cite la loi jointe des valeurs propres, la densité spectrale, l'espacement des valeurs propres, la plus grande valeur propre et les vecteurs propres associés. En mécanique quantique par exemple, les valeurs propres d'une matrice du GUE modélisent les niveaux d'énergie d'un électron autour du noyau tandis que le vecteur propre associé à la plus grande valeur propre d'une matrice de covariance empirique indique la direction ou l'axe principal en analyse de données. Comme pour le modèle de percolation dirigée, on s'est intéressé en particulier aux propriétés de grandes déviations de la valeur propre maximale d'un certain type de matrices de covariance empirique. Cette étude pourrait avoir des applications en statistique et notamment en analyse en composantes principales. Malgré l'apparente différence, la théorie des matrices aléatoires est strictement liée au modèle de percolation dirigée. Leurs structures de corrélation se ressemblent dans certains cas d'une manière troublante. La convergence des fluctuations, dans les deux cas, vers la célèbre loi de Tracy-Widom en est un bon exemple.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Ibrahim, Jean-Paul. « Grandes déviations pour des modèles de percolation dirigée & ; pour des matrices aléatoires ». Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1250/.

Texte intégral
Résumé :
Durant cette thèse, on a étudié essentiellement deux modèles aléatoires qui, malgré leur différence apparente, cachent un intérêt commun et mettent en évidence des phénomènes mathématiques et physiques communs. Le modèle de percolation de dernier passage dans le plan (last-passage directed percolation model ou LPP) est un modèle de percolation orientée bidimensionnel. Il fait partie d'une vaste liste de modèles de croissance et sert à modéliser des phénomènes dans des domaines variés. Dans la première partie de cette thèse, on s'est intéressé essentiellement aux propriétés de grandes déviations de ce modèle. On a également examiné les fluctuations transversales du même modèle. Toute cette étude a été faite dans le cadre d'un rectangle fin. Parallèlement aux travaux sur les modèles de croissance, on a étudié un autre sujet qui émerge également du monde de la Physique: celui des matrices aléatoires. Ces matrices se divisent en deux catégories principales introduites à une vingtaine d'années d'intervalle: les matrices de covariance empirique et les matrices de Wigner. L'étendue du champ d'application de ces matrices est tellement vaste qu'on peut les rencontrer presque dans toutes les filières scientifiques: probabilité, combinatoire, physique atomique, statistique multivariée, télécommunication, théorie des représentations, etc. Parmi les objets mathématiques les plus étudiés, on cite la loi jointe des valeurs propres, la densité spectrale, l'espacement des valeurs propres, la plus grande valeur propre et les vecteurs propres associés. En mécanique quantique par exemple, les valeurs propres d'une matrice du GUE modélisent les niveaux d'énergie d'un électron autour du noyau tandis que le vecteur propre associé à la plus grande valeur propre d'une matrice de covariance empirique indique la direction ou l'axe principal en analyse de données. Comme pour le modèle de percolation dirigée, on s'est intéressé en particulier aux propriétés de grandes déviations de la valeur propre maximale d'un certain type de matrices de covariance empirique. Cette étude pourrait avoir des applications en statistique et notamment en analyse en composantes principales. Malgré l'apparente différence, la théorie des matrices aléatoires est strictement liée au modèle de percolation dirigée. Leurs structures de corrélation se ressemblent dans certains cas d'une manière troublante. La convergence des fluctuations, dans les deux cas, vers la célèbre loi de Tracy-Widom en est un bon exemple
In this thesis, we study two random models: last-passage percolation and random matrices. Despite the difference between these two models, they highlight common interests and phenomena. The last-passage percolation or LPP is a growth model in the lattice plane. It is part of a wide list of growth models and is used to model phenomena in various fields: tandem queues in series, totally asymmetric simple exclusion process, etc. In the first part of this thesis, we focused on LPP's large deviation properties. Later in this part, we studied the LPP's transversal fluctuations. Alongside the work on growth models, we studied another subject that also emerges in the world of physics: random matrices. These matrices are divided into two main categories introduced twenty years apart: the sample covariance matrices and Wigner's matrices. The extent of the scope of these matrices is so large we can meet almost all the sciences: probability, combinatorics, atomic physics, multivariate statistics, telecommunications, representation theory, etc. Among the most studied mathematical objects, we list the joint distribution of eigenvalues, the empirical spectral density, the eigenvalues spacing, the largest eigenvalue and eigenvectors. For example, in quantum mechanics, the eigenvalues of a GUE matrix model the energy levels of an electron around the nucleus while the eigenvector associated to the largest eigenvalue of a sample covariance matrix indicates the direction or the main axis in data analysis. As with the LPP, we studied large deviation properties of the largest eigenvalue for some sample covariance matrices. This study could have applications in statistics. Despite the apparent difference, the random matrix theory is strictly related to directed percolation model. Correlation structures are similar in some cases. The convergence of fluctuations to the famous Tracy-Widom law in both cases illustrates the connection between these two models
Styles APA, Harvard, Vancouver, ISO, etc.
30

Dellagi, Hatem. « Estimations paramétrique et non paramétrique des données manquantes : application à l'agro-climatologie ». Paris 6, 1994. http://www.theses.fr/1994PA066546.

Texte intégral
Résumé :
Dans ce travail nous proposons deux méthodes d'estimation des données manquantes. Dans le cas de l'estimation paramétrique et afin de résoudre le problème par la prévision, nous exploitons l'estimateur décale (E. D) de la partie autorégressive d'un modèle ARMA scalaire pour estimer la matrice de covariance In dont la consistance forte est prouvée sous des conditions ayant l'avantage de s'exprimer en fonction des trajectoires et identifier les coefficients de la partie moyenne mobile et la variance du bruit blanc. En analyse des correspondances et afin d'estimer les données manquantes d'un tableau de correspondance, le problème se résout complètement dans le cas d'une seule donnée manquante. L'existence est prouvée dans le cas où il y en a plusieurs, par contre l'unicité étant délicate, une combinaison linéaire entre les données manquantes est obtenue à partir de la formule de la trace dont la minimisation assure l'homogénéité du tableau de correspondance, nous établirons sous le même critère la reconstitution d'une donnée d'origine à partir du codage linéaire par morceaux
Styles APA, Harvard, Vancouver, ISO, etc.
31

Ohlson, Martin. « Studies in Estimation of Patterned Covariance Matrices ». Doctoral thesis, Linköpings universitet, Matematisk statistik, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-18519.

Texte intégral
Résumé :
Many testing, estimation and confidence interval procedures discussed in the multivariate statistical literature are based on the assumption that the observation vectors are independent and normally distributed. The main reason for this is that often sets of multivariate observations are, at least approximately, normally distributed. Normally distributed data can be modeled entirely in terms of their means and variances/covariances. Estimating the mean and the covariance matrix is therefore a problem of great interest in statistics and it is of great significance to consider the correct statistical model. The estimator for the covariance matrix is important since inference on the mean parameters strongly depends on the estimated covariance matrix and the dispersion matrix for the estimator of the mean is a function of it. In this thesis the problem of estimating parameters for a matrix normal distribution with different patterned covariance matrices, i.e., different statistical models, is studied. A p-dimensional random vector is considered for a banded covariance structure reflecting m-dependence. A simple non-iterative estimation procedure is suggested which gives an explicit, unbiased and consistent estimator of the mean and an explicit and consistent estimator of the covariance matrix for arbitrary p and m. Estimation of parameters in the classical Growth Curve model when the covariance matrix has some specific linear structure is considered. In our examples maximum likelihood estimators can not be obtained explicitly and must rely on numerical optimization algorithms. Therefore explicit estimators are obtained as alternatives to the maximum likelihood estimators. From a discussion about residuals, a simple non-iterative estimation procedure is suggested which gives explicit and consistent estimators of both the mean and the linearly structured covariance matrix. This thesis also deals with the problem of estimating the Kronecker product structure. The sample observation matrix is assumed to follow a matrix normal distribution with a separable covariance matrix, in other words it can be written as a Kronecker product of two positive definite matrices. The proposed estimators are used to derive a likelihood ratio test for spatial independence. Two cases are considered, when the temporal covariance is known and when it is unknown. When the temporal covariance is known, the maximum likelihood estimates are computed and the asymptotic null distribution is given. In the case when the temporal covariance is unknown the maximum likelihood estimates of the parameters are found by an iterative alternating algorithm and the null distribution for the likelihood ratio statistic is discussed.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Yekollu, Srikar. « Graph Based Regularization of Large Covariance Matrices ». The Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=osu1237243768.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
33

Rizzato, Matteo. « Non-Gaussian cosmology : theoretical and statistical challenges for modern galaxy surveys ». Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS334.

Texte intégral
Résumé :
Nous détaillons dans cette thèse les différentes étapes nécessaires l’implémentation numérique optimale du calcul de la vraisemblance des paramètres cosmologiques appliqué aux relevés modernes de lentillage gravitationnel faible des grandes structures. En particulier, nous nous concentrons sur la détection conjointe du spectre de puissance et du bispectre du lentillage gravitationnel faible. Pour ce faire, nous avons relevé les défis numériques requis par une analyse complète. Dans un premier temps, nous dressons l'état de l'art nécessaire à la compréhension du formalisme de la sonde cosmologique susmentionnée et nous décrivons comment obtenir une estimation non biaisée de la matrice de covariance pour les observables considérées. En supposant une vraisemblance gaussienne multivariée, nous avons développé un algorithme de haute performance permettant de prédire les observables tomographiques rééchantillonnées avec leur matrice de covariance conjointe en tenant compte des fonctions de corrélations de 2 à 6 points et des corrélations avec les modes hors du relevé. La performance de notre code nous permet de répondre aux exigences scientifiques des relevés de galaxies des dix prochaines années. Nous montrons que le bispectre du lentillage gravitationnel faible améliore le signal sur bruit (S/N) de notre analyse conjointe du spectre et du bispectre d'environ 10% en comparaison avec une analyse du spectre seulement. Par conséquent, le bispectre est une source non négligeable d’information cosmologique pour les relevés futurs. En outre, nous sommes capables de quantifier l’impact des incertitudes théoriques liées à la description de la matière noire dans le “modèle des halos” qui est utilisé pour construire nos observables; cet impact se trouve être négligeable pour l’analyse du S/N. Finalement, nous étudions la possibilité de réduire les données pour optimiser les analyses futures du bispectre du lentillage. Nous trouvons qu’en ignorant les erreurs systématiques une analyse ne concernant que 5 échantillons en décalage vers le rouge permet d’obtenir la même quantité d’information que dans le cas d’un relevé semblable à celui d'Euclid, qui utilise 10 échantillons sans améliorer le S/N. Nous explorons également l’analyse en composantes principales et la dépendance de l’information cosmologique en fonction de la forme des triangles comme méthodes permettant de réduire la complexité du problème
In this thesis, we address key points for an efficient implementation of likelihood codes for modern weak lensing large-scale structure surveys. Specifically, we will focus on the joint weak lensing convergence power spectrum-bispectrum probe and we will tackle the numerical challenges required by realistic analyses. In order to clearly convey the importance of our research, we first provide an in-depth review of the background material required for a comprehensive understanding of the final results. The cosmological context of the study is provided, followed by a description of the technical elements inherent to unbiased covariance matrix estimation for the probe considered. Under the assumption of multivariate Gaussian likelihood, we developed a high performance code that allows highly parallelised prediction of the binned tomographic observables and of their joint non-Gaussian covariance matrix accounting for terms up to the 6-point correlation function and super-sample effects. This performance allows us to qualitatively address several interesting scientific questions. We find that the bispectrum provides an improvement in terms of signal-to-noise ratio (S/N) of about 10% on top of the power spectrum alone, making it a non-negligible source of information for future surveys. Furthermore, we are capable to address the impact of theoretical uncertainties in the halo model used to build our observables; with presently allowed variations we conclude that the impact is negligible on the S/N. Finally, we consider data compression possibilities to optimise future analyses of the weak lensing bispectrum. We find that, ignoring systematics, 5 equipopulated redshift bins are enough to recover the information content of a Euclid-like survey, with negligible improvement when increasing to 10 bins. We also explore principal component analysis and dependence on the triangle shapes as ways to reduce the numerical complexity of the problem
Styles APA, Harvard, Vancouver, ISO, etc.
34

Pascal, Frédéric. « Détection et Estimation en Environnement non Gaussien ». Phd thesis, Université de Nanterre - Paris X, 2006. http://tel.archives-ouvertes.fr/tel-00128438.

Texte intégral
Résumé :
Dans le contexte très général de la détection radar, les détecteurs classiques, basés sur l'hypothèse d'un bruit Gaussien, sont souvent mis en défaut dès lors que l'environnement (fouillis de sol, de mer) devient inhomogène, voire impulsionnel, s'écartant très vite du modèle Gaussien. Des modèles physiques de fouillis basés sur les modèles de bruit composé (SIRP, Compound Gaussian Processes) permettent de mieux représenter la réalité (variations spatiales de puissance et nature de fouillis, transitions, ...). Ces modèles dépendent cependant de paramètres (matrice de covariance, loi de texture, paramètres de "disturbance") qu'il devient nécessaire d'estimer. Une fois ces paramètres estimés, il est possible de construire des détecteurs radar optimaux (Generalized Likelihood Ratio Test - Linear Quadratic) pour ces environnements. Cette thèse, qui s'appuie sur ces modèles, propose une analyse complète de diverses procédures d'estimation de matrices de covariance, associées à ce problème de détection. Une étude statistique des principaux estimateurs de matrice de covariance, utilisés actuellement, est réalisée. De plus, un nouvel estimateur est proposé: l'estimateur du point fixe, très attractif grâce à ses bonnes propriétés statistiques et "radaristiques".
Elle décrit également les performances et les propriétés théoriques (SIRV-CFAR) du détecteur GLRT-LQ construits avec ces nouveaux estimateurs. En particulier, on montre l'invariance du détecteur à la loi de la texture mais également à la matrice de covariance régissant les propriétés spectrales du fouillis. Ces nouveaux détecteurs sont ensuite analysés sur des données simulées mais également testés sur des données réelles de fouillis de sol.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Passemier, Damien. « Inférence statistique dans un modèle à variances isolées de grande dimension ». Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00780492.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'estimation statistique dans un modèle à variances isolées (modèle spike) de grande dimension. La théorie des matrices aléatoires permet de prendre en compte cette spécificité, puisque la plupart des résultats limites s'appliquent aux matrices dont la taille tend vers l'infini. Une part importante de ces résultats concerne la matrice de covariance empirique. Dans un premier temps, nous nous intéressons à l'estimation du nombre de facteurs/spikes. La différence de comportement des valeurs propres de la matrice de covariance empirique, selon que l'on considère celles correspondant aux spikes ou non, nous permet de construire un estimateur. Ce dernier correspond à la différence de deux valeurs propres consécutives ordonnées. Nous établissons la consistance de l'estimateur dans le cas où toutes les spikes sont distinctes, et le comparons à deux méthodes existantes à travers des simulations. L'estimateur dépend d'un seuil qui doit remplir certaines conditions. Dans la suite, nous étendons le résultat de consistance au cas d'égalité et améliorons l'estimateur en changeant de seuil. Dans un second temps, nous considérons les estimateurs du maximum de vraisemblance d'un modèle à facteurs strict à variance homoscédastique. En utilisant un théorème limite pour les statistiques spectrales linéaires, nous corrigeons l'estimateur de la variance commune en grande dimension en donnant l'expression de son biais et en établissant sa loi limite. Nous présentons une version corrigée du test du rapport de vraisemblance d'adéquation à un modèle à facteurs. Finalement, nous construisons un test d'égalité de deux spikes.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Accardo, Jérôme. « Valeurs propres des matrices de Toeplitz et matrices de covariance de processus ». Lille 1, 1991. http://www.theses.fr/1991LIL10123.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Gunay, Melih. « Representation Of Covariance Matrices In Track Fusion Problems ». Master's thesis, METU, 2007. http://etd.lib.metu.edu.tr/upload/12609026/index.pdf.

Texte intégral
Résumé :
Covariance Matrix in target tracking algorithms has a critical role at multi- sensor track fusion systems. This matrix reveals the uncertainty of state es- timates that are obtained from diferent sensors. So, many subproblems of track fusion usually utilize this matrix to get more accurate results. That is why this matrix should be interchanged between the nodes of the multi-sensor tracking system. This thesis mainly deals with analysis of approximations of the covariance matrix that can best represent this matrix in order to efectively transmit this matrix to the demanding site. Kullback-Leibler (KL) Distance is exploited to derive some of the representations for Gaussian case. Also com- parison of these representations is another objective of this work and this is based on the fusion performance of the representations and the performance is measured for a system of a 2-radar track fusion system.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Sivapalan, Ajani. « Estimating covariance matrices in a portfolio allocation problem ». Thesis, Imperial College London, 2012. http://hdl.handle.net/10044/1/39390.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Kim, Myung Geun. « Models for the covariance matrices of several groups / ». The Ohio State University, 1991. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487758680162533.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
40

Keller, Gaëlle. « Génération et caractérisation d'états intriqués en variables continues ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00265679.

Texte intégral
Résumé :
Cette thèse est consacrée à l'étude expérimentale et théorique des corrélations quantiques en variables continues.
La question de la caractérisation de ces corrélations est largement abordée, en particulier dans le cas des états gaussiens. Le formalisme mathématique des matrices de covariance, particulièrement adapté à cette étude, est développé ; et les différents critères existants sont répertoriés.
Ces critères permettent de caractériser le degré d'intrication des faisceaux générés par le dispositif expérimental au cœur de cette thèse : un Oscillateur Paramétrique Optique auto-verrouillé en phase. Au-dessous du seuil, les faisceaux, de valeur moyenne nulle, présentent une séparabilité de 0,33. Le système viole de manière apparente l'inégalité de Heisenberg de 58%. Au-dessus du seuil, les faisceaux brillants obtenus sont également fortement non classiques : la séparabilité vaut 0,76 et l'inégalité de Heisenberg est violée en apparence de 24%.
Une application originale de ce dispositif est proposée : il est montré théoriquement qu'un OPO à deux cristaux auto-verrouillé en phase génère deux faisceaux intriqués en polarisation, ce qui devrait faciliter le transfert de l'intrication de la lumière à la matière.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Monsivais, Miguel. « Using an Eigenvalue Distribution to Compare Covariance Structure Matrices ». Thesis, University of North Texas, 1989. https://digital.library.unt.edu/ark:/67531/metadc331934/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
42

Nzabanita, Joseph. « Bilinear and Trilinear Regression Models with Structured Covariance Matrices ». Doctoral thesis, Linköpings universitet, Matematisk statistik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-118089.

Texte intégral
Résumé :
This thesis focuses on the problem of estimating parameters in bilinear and trilinear regression models in which random errors are normally distributed. In these models the covariance matrix has a Kronecker product structure and some factor matrices may be linearly structured. The interest of considering various structures for the covariance matrices in different statistical models is partly driven by the idea that altering the covariance structure of a parametric model alters the variances of the model’s estimated mean parameters. Firstly, the extended growth curve model with a linearly structured covariance matrix is considered. The main theme is to find explicit estimators for the mean and for the linearly structured covariance matrix. We show how to decompose the residual space, the orthogonal complement to the mean space, into appropriate orthogonal subspaces and how to derive explicit estimators of the covariance matrix from the sum of squared residuals obtained by projecting observations on those subspaces. Also an explicit estimator of the mean is derived and some properties of the proposed estimators are studied. Secondly, we study a bilinear regression model with matrix normally distributed random errors. For those models, the dispersion matrix follows a Kronecker product structure and it can be used, for example, to model data with spatio-temporal relationships. The aim is to estimate the parameters of the model when, in addition, one covariance matrix is assumed to be linearly structured. On the basis of n independent observations from a matrix normal distribution, estimating equations, a flip-flop relation, are established. At last, the models based on normally distributed random third order tensors are studied. These models are useful in analyzing 3-dimensional data arrays. In some studies the analysis is done using the tensor normal model, where the focus is on the estimation of the variance-covariance matrix which has a Kronecker structure. Little attention is paid to the structure of the mean, however, there is a potential to improve the analysis by assuming a structured mean. We formally introduce a 2-fold growth curve model by assuming a trilinear structure for the mean in the tensor normal model and propose an estimation algorithm for parameters. Also some extensions are discussed.
Styles APA, Harvard, Vancouver, ISO, etc.
43

ALHARBI, YOUSEF S. « RECOVERING SPARSE DIFFERENCES BETWEEN TWO HIGH-DIMENSIONAL COVARIANCE MATRICES ». Kent State University / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=kent1500392318023941.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
44

Kalaitzis, Alfredo. « Learning with structured covariance matrices in linear Gaussian models ». Thesis, University of Sheffield, 2013. http://etheses.whiterose.ac.uk/4038/.

Texte intégral
Résumé :
We study structured covariance matrices in a Gaussian setting for a variety of data analysis scenarios. Despite its simplistic nature, we argue for the broad applicability of the Gaussian family through its second order statistics. We focus on three types of common structures in the machine learning literature: covariance functions, low-rank and sparse inverse covariances. Our contributions boil down to combin- ing these structures and designing algorithms for maximum-likelihood or MAP fitting: for instance, we use covariance functions in Gaus- sian processes to encode the temporal structure in a gene-expression time-series, with any residual structure generating iid noise. More generally, for a low-rank residual structure (correlated residuals) we introduce the residual component analysis framework: based on a generalised eigenvalue problem, it decomposes the residual low-rank term given a partial explanation of the covariance. In this example the explained covariance would be an RBF kernel, but it can be any positive-definite matrix. Another example is the low-rank plus sparse- inverse composition for structure learning of GMRFs in the presence of confounding latent variables. We also study RCA as a novel link between classical low-rank methods and modern probabilistic counter- parts: the geometry of oblique projections shows how PCA, CCA and linear discriminant analysis reduce to RCA. Also inter-battery factor analysis, a precursor of multi-view learning, is reduced to an itera- tive application of RCA. Finally, we touch on structured precisions of matrix-normal models based on the Cartesian factorisation of graphs, with appealing properties for regression problems and interpretabil- ity. In all cases, experimental results and simulations demonstrate the performance of the different methods proposed.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Youssef, Pierre, et Pierre Youssef. « Invertibilité restreinte, distance au cube et covariance de matrices aléatoires ». Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00952297.

Texte intégral
Résumé :
Dans cette thèse, on aborde trois thèmes : problème de sélection de colonnes dans une matrice, distance de Banach-Mazur au cube et estimation de la covariance de matrices aléatoires. Bien que les trois thèmes paraissent éloignés, les techniques utilisées se ressemblent tout au long de la thèse. Dans un premier lieu, nous généralisons le principe d'invertibilité restreinte de Bourgain-Tzafriri. Ce résultat permet d'extraire un "grand" bloc de colonnes linéairement indépendantes dans une matrice et d'estimer la plus petite valeur singulière de la matrice extraite. Nous proposons ensuite un algorithme déterministe pour extraire d'une matrice un bloc presque isométrique c'est à dire une sous-matrice dont les valeurs singulières sont proches de 1. Ce résultat nous permet de retrouver le meilleur résultat connu sur la célèbre conjecture de Kadison-Singer. Des applications à la théorie locale des espaces de Banach ainsi qu'à l'analyse harmonique sont déduites. Nous donnons une estimation de la distance de Banach-Mazur d'un corps convexe de Rn au cube de dimension n. Nous proposons une démarche plus élémentaire, basée sur le principe d'invertibilité restreinte, pour améliorer et simplifier les résultats précédents concernant ce problème. Plusieurs travaux ont été consacrés pour approcher la matrice de covariance d'un vecteur aléatoire par la matrice de covariance empirique. Nous étendons ce problème à un cadre matriciel et on répond à la question. Notre résultat peut être interprété comme une quantification de la loi des grands nombres pour des matrices aléatoires symétriques semi-définies positives. L'estimation obtenue s'applique à une large classe de matrices aléatoires
Styles APA, Harvard, Vancouver, ISO, etc.
46

Youssef, Pierre. « Invertibilité restreinte, distance au cube et covariance de matrices aléatoires ». Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1022/document.

Texte intégral
Résumé :
Dans cette thèse, on aborde trois thèmes : problème de sélection de colonnes dans une matrice, distance de Banach-Mazur au cube et estimation de la covariance de matrices aléatoires. Bien que les trois thèmes paraissent éloignés, les techniques utilisées se ressemblent tout au long de la thèse. Dans un premier lieu, nous généralisons le principe d'invertibilité restreinte de Bourgain-Tzafriri. Ce résultat permet d'extraire un "grand" bloc de colonnes linéairement indépendantes dans une matrice et d'estimer la plus petite valeur singulière de la matrice extraite. Nous proposons ensuite un algorithme déterministe pour extraire d'une matrice un bloc presque isométrique c’est à dire une sous-matrice dont les valeurs singulières sont proches de 1. Ce résultat nous permet de retrouver le meilleur résultat connu sur la célèbre conjecture de Kadison-Singer. Des applications à la théorie locale des espaces de Banach ainsi qu'à l'analyse harmonique sont déduites. Nous donnons une estimation de la distance de Banach-Mazur d'un corps convexe de Rn au cube de dimension n. Nous proposons une démarche plus élémentaire, basée sur le principe d'invertibilité restreinte, pour améliorer et simplifier les résultats précédents concernant ce problème. Plusieurs travaux ont été consacrés pour approcher la matrice de covariance d'un vecteur aléatoire par la matrice de covariance empirique. Nous étendons ce problème à un cadre matriciel et on répond à la question. Notre résultat peut être interprété comme une quantification de la loi des grands nombres pour des matrices aléatoires symétriques semi-définies positives. L'estimation obtenue s'applique à une large classe de matrices aléatoires
In this thesis, we address three themes : columns subset selection in a matrix, the Banach-Mazur distance to the cube and the estimation of the covariance of random matrices. Although the three themes seem distant, the techniques used are similar throughout the thesis. In the first place, we generalize the restricted invertibility principle of Bougain-Tzafriri. This result allows us to extract a "large" block of linearly independent columns inside a matrix and estimate the smallest singular value of the restricted matrix. We also propose a deterministic algorithm in order to extract an almost isometric block inside a matrix i.e a submatrix whose singular values are close to 1. This result allows us to recover the best known result on the Kadison-Singer conjecture. Applications to the local theory of Banach spaces as well as to harmonic analysis are deduced. We give an estimate of the Banach-Mazur distance between a symmetric convex body in Rn and the cube of dimension n. We propose an elementary approach, based on the restricted invertibility principle, in order to improve and simplify the previous results dealing with this problem. Several studies have been devoted to approximate the covariance matrix of a random vector by its sample covariance matrix. We extend this problem to a matrix setting and we answer the question. Our result can be interpreted as a quantified law of large numbers for positive semidefinite random matrices. The estimate we obtain, applies to a large class of random matrices
Styles APA, Harvard, Vancouver, ISO, etc.
47

Fisher, Thomas J. « On the testing and estimation of high-dimensional covariance matrices ». Connect to this title online, 2009. http://etd.lib.clemson.edu/documents/1263408675/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Nzabanita, Joseph. « Estimation in Multivariate Linear Models with Linearly Structured Covariance Matrices ». Licentiate thesis, Linköpings universitet, Matematiska institutionen, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-78845.

Texte intégral
Résumé :
This thesis focuses on the problem of estimating parameters in multivariate linear models where particularly the mean has a bilinear structure and the covariance matrix has a linear structure. Most of techniques in statistical modeling rely on the assumption that data were generated from the normal distribution. Whereas real data may not be exactly normal, the normal distributions serve as a useful approximation to the true distribution. The modeling of normally distributed data relies heavily on the estimation of the mean and the covariance matrix. The interest of considering various structures for the covariance matrices in different statistical models is partly driven by the idea that altering the covariance structure of a parametric model alters the variances of the model’s estimated mean parameters. The extended growth curve model with two terms and a linearly structured covariance matrix is considered. In general there is no problem to estimate the covariance matrix when it is completely unknown. However, problems arise when one has to take into account that there exists a structure generated by a few number of parameters. An estimation procedure that handles linear structured covariance matrices is proposed. The idea is first to estimate the covariance matrix when it should be used to define an inner product in a regression space and thereafter reestimate it when it should be interpreted as a dispersion matrix. This idea is exploited by decomposing the residual space, the orthogonal complement to the design space, into three orthogonal subspaces. Studying residuals obtained from projections of observations on these subspaces yields explicit consistent estimators of the covariance matrix. An explicit consistent estimator of the mean is also proposed and numerical examples are given. The models based on normally distributed random matrix are also studied in this thesis. For these models, the dispersion matrix has the so called Kronecker product structure and they can be used for example to model data with spatio-temporal relationships. The aim is to estimate the parameters of the model when, in addition, one covariance matrix is assumed to be linearly structured. On the basis of n independent observations from a matrix normal distribution, estimation equations in a flip-flop relation are presented and numerical examples are given.
Styles APA, Harvard, Vancouver, ISO, etc.
49

BUCCI, ANDREA. « Un modello con variabili esogene per la matrice delle covarianze realizzate ». Doctoral thesis, Università Politecnica delle Marche, 2017. http://hdl.handle.net/11566/245577.

Texte intégral
Résumé :
La volatilità finanziaria ha assunto, di recente, un ruolo importante in diversi ambiti applicativi come la gestione del rischio, la formazione del prezzo delle opzioni e l’allocazione di portafoglio. Diversi lavori hanno evidenziato come la volatilità sia più alta quando il livello dell'economia è basso. Una larga parte della letteratura specializzata si è concentrata, quindi, sull’individuazione delle determinanti della volatilità. Questa tesi si pone l’obiettivo di analizzare la relazione tra la volatilità e le determinanti macroeconomiche e finanziarie in ambito multivariato. L’analisi si basa su una procedura che prevede l’utilizzo di una misura di volatilità come la varianza realizzata, di una trasformazione della matrice delle covarianze realizzate, come la scomposizione di Cholesky, e sull’utilizzo di un modello lineare e di un modello non lineare con l’inclusione di determinanti macroeconomiche e finanziarie. Il primo capitolo esplora la letteratura sulle misure di volatilità con particolare attenzione posta sull’uso della volatilità realizzata e i suoi sviluppi in ambito multivariato. Nel secondo capitolo sono introdotti due modelli previsionali, uno lineare e non lineare. L'utilità in termini previsionali della scomposizione di Cholesky e dell'uso di previsori viene valutata con metodi diretti di valutazione delle previsioni. L'analisi non lineare è accompagnata da alcuni test sulla presenza di break strutturali e sulla non-linearità delle variabili dipendenti. I modelli vengono stimati su due distinti dataset. Il terzo e ultimo capitolo presenta un’applicazione empirica dei modelli introdotti nel secondo capitolo in un’ottimizzazione di un portafoglio di titoli e nella gestione del rischio.
Financial volatility assumes a crucial role for risk management, asset pricing and portfolio management. Several studies found that volatility is higher when the level of economic activity is low. Thus, it seems interesting to examine the role of macroeconomic and financial variables in predicting volatility. This thesis aims to analyze the relationship between volatility and macroeconomic and financial determinants in the multivariate. The analysis is based on a procedure that involves the use of the realized variance as volatility measure, on the use of a matrix transformation, as the Cholesky decomposition, on the use of a linear and a non-linear model with the inclusion of macroeconomic and financial predictors. Chapter 1 explores the literature on the measures of volatility, particularly focusing on the realized variance and its extensions. In the second chapter, the thesis introduces two predictive models, a linear model and a non-linear model. The predictive role of the Cholesky decomposition and the use of predictors out-of-sample is evaluated with direct methods. The non-linear model is preceded by structural breaks and non-linearity tests. The models are estimated on two distinct data set. The third chapter presents an empirical application of the models introduced in the second chapter in a portfolio optimization and in risk management.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Ribes, Aurélien. « Détection statistique des changements climatiques ». Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00439861.

Texte intégral
Résumé :
Selon le Groupe Intergouvernemental d'experts sur l'Evolution du Climat (GIEC), la détection est la démonstration statistique de ce qu'un changement observé ne peut pas être expliqué par la seule variabilité interne naturelle du climat. Cette thèse s'intéresse à la détection des changements climatiques à l'échelle régionale, et en particulier aux méthodes statistiques adaptées à ce type de problématique. Plusieurs procédures de tests statistiques sont ainsi présentées et étudiées. La première méthode développée consiste à rechercher, dans les observations, la présence d'un signal de changements climatiques dont la distribution spatiale est connue. Dans ce cas, une nouvelle adaptation de la méthode des empreintes digitales optimales a été proposée, basée sur l'utilisation d'un estimateur bien conditionné de la matrice de covariance de la variabilité interne du climat. Une seconde approche propose de rechercher un signal ayant une forme d'évolution temporelle particulière. La forme recherchée peut alors être évaluée à partir de scénarios climatiques en utilisant des fonctions de lissage "splines". Une troisième stratégie consiste à étudier la présence d'un changement non spécifié à l'avance, mais qui vérifie une propriété de séparabilité espace-temps, et qui présente une certaine régularité en temps. On utilise dans ce cas un formalisme de statistique fonctionnelle, pour construire un test de significativité de la première composante principale lisse, basé sur le rapport des vraisemblances pénalisées. L'application de ces différentes méthodes sur des données observées sur la France et le bassin Méditerranéen a permis de mettre en évidence de nouveaux résultats concernant les changements climatiques en cours sur ces deux domaines. Des changements significatifs sont notamment mis en évidence sur les températures annuelles et saisonnières, ainsi que sur les précipitations annuelles, dans le cas de la France. Ces changements ne sont pas uniformes en espace et modifient la distribution régionale de la variable étudiée. La comparaison des différentes méthodes de détection proposées a également permis de discuter de la capacité des modèles de climat à simuler correctement les caractéristiques spatiales et temporelles des changements climatiques.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie