Siga este enlace para ver otros tipos de publicaciones sobre el tema: Estimateur maximal de vraisemblance.

Tesis sobre el tema "Estimateur maximal de vraisemblance"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 39 mejores tesis para su investigación sobre el tema "Estimateur maximal de vraisemblance".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Detais, Amélie. "Maximum de vraisemblance et moindre carrés pénalisés dans des modèles de durée de vie censurées". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/820/.

Texto completo
Resumen
L'analyse de durées de vie censurées est utilisée dans des domaines d'application variés et différentes possibilités ont été proposées pour la modélisation de telles données. Nous nous intéressons dans cette thèse à deux types de modélisation différents, le modèle de Cox stratifié avec indicateurs de strates aléatoirement manquants et le modèle de régression linéaire censuré à droite. Nous proposons des méthodes d'estimation des paramètres et établissons les propriétés asymptotiques des estimateurs obtenus dans chacun de ces modèles. Dans un premier temps, nous considérons une généralisation du modèle de Cox qui permet à différents groupes de la population, appelés strates, de posséder des fonctions d'intensité de base différentes tandis que la valeur du paramètre de régression est commune. Dans ce modèle à intensité proportionnelle stratifié, nous nous intéressons à l'estimation des paramètres lorsque l'indicateur de strate est manquant pour certains individus de la population. Des estimateurs du maximum de vraisemblance non paramétrique pour les paramètres du modèle sont proposés et nous montrons leurs consistance et normalité asymptotique. L'efficacité du paramètre de régression est établie et des estimateurs consistants de sa variance asymptotique sont également obtenus. Pour l'évaluation des estimateurs du modèle, nous proposons l'utilisation de l'algorithme Espérance-Maximisation et le développons dans ce cas particulier. Dans un second temps, nous nous intéressons au modèle de régression linéaire lorsque la donnée réponse est censurée aléatoirement à droite. Nous introduisons un nouvel estimateur du paramètre de régression minimisant un critère des moindres carrés pénalisé et pondéré par des poids de Kaplan-Meier. Des résultats de consistance et normalité asymptotique sont obtenus et une étude de simulations est effectuée pour illustrer les propriétés de cet estimateur de type LASSO. La méthode bootstrap est utilisée pour l'estimation de la variance asymptotique
Life data analysis is used in various application fields. Different methods have been proposed for modelling such data. In this thesis, we are interested in two distinct modelisation types, the stratified Cox model with randomly missing strata indicators and the right-censored linear regression model. We propose methods for estimating the parameters and establish the asymptotic properties of the obtained estimators in each of these models. First, we consider a generalization of the Cox model, allowing different groups, named strata, of the population to have distinct baseline intensity functions, whereas the regression parameter is shared by all the strata. In this stratified proportional intensity model, we are interested in the parameters estimation when the strata indicator is missing for some of the population individuals. Nonparametric maximum likelihood estimators are proposed for the model parameters and their consistency and asymptotic normality are established. We show the efficiency of the regression parameter and obtain consistent estimators of its variance. The Expectation-Maximization algorithm is proposed and developed for the evaluation of the estimators of the model parameters. Second, we are interested in the regression linear model when the response data is randomly right-censored. We introduce a new estimator of the regression parameter, which minimizes a Kaplan-Meier-weighted penalized least squares criterion. Results of consistency and asymptotic normality are obtained and a simulation study is conducted in order to investigate the small sample properties of this LASSO-type estimator. The bootstrap method is used for the estimation of the asymptotic variance
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Top, Alioune. "Estimation paramétriques et tests d'hypothèses pour des modèles avec plusieurs ruptures d'un processus de poisson". Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1014/document.

Texto completo
Resumen
Ce travail est consacré aux problèmes d’estimation paramétriques, aux tests d’hypothèses et aux tests d’ajustement pour les processus de Poisson non homogènes.Tout d’abord on a étudié deux modèles ayant chacun deux sauts localisés par un paramètre inconnu. Pour le premier modèle la somme des sauts est positive. Tandis que le second a un changement de régime et constant par morceaux. La somme de ses deux sauts est nulle. Ainsi pour chacun de ces modèles nous avons étudié les propriétés asymptotiques de l’estimateur bayésien (EB) et celui du maximum de vraisemblance(EMV). Nous avons montré la consistance, la convergence en distribution et la convergence des moments. En particulier l’estimateur bayésien est asymptotiquement efficace. Pour le second modèle nous avons aussi considéré le test d’une hypothèse simple contre une alternative unilatérale et nous avons décrit les propriétés asymptotiques (choix du seuil et puissance ) du test de Wald (WT)et du test du rapport de vraisemblance généralisé (GRLT).Les démonstrations sont basées sur la méthode d’Ibragimov et Khasminskii. Cette dernière repose sur la convergence faible du rapport de vraisemblance normalisé dans l’espace de Skorohod sous certains critères de tension des familles demesure correspondantes.Par des simulations numériques, les variances limites nous ont permis de conclure que l’EB est meilleur que celui du EMV. Lorsque la somme des sauts est nulle, nous avons développé une approche numérique pour le EMV.Ensuite on a considéré le problème de construction d’un test d’ajustement pour un modèle avec un paramètre d’échelle. On a montré que dans ce cas, le test de Cramer-von Mises est asymptotiquement ”parameter-free” et est consistent
This work is devoted to the parametric estimation, hypothesis testing and goodnessof-fit test problems for non homogenous Poisson processes. First we consider two models having two jumps located by an unknown parameter.For the first model the sum of jumps is positive. The second is a model of switching intensity, piecewise constant and the sum of jumps is zero. Thus, for each model, we studied the asymptotic properties of the Bayesian estimator (BE) andthe likelihood estimator (MLE). The consistency, the convergence in distribution and the convergence of moments are shown. In particular we show that the BE is asymptotically efficient. For the second model we also consider the problem of asimple hypothesis testing against a one- sided alternative. The asymptotic properties (choice of the threshold and power) of Wald test (WT) and the generalized likelihood ratio test (GRLT) are described.For the proofs we use the method of Ibragimov and Khasminskii. This method is based on the weak convergence of the normalized likelihood ratio in the Skorohod space under some tightness criterion of the corresponding families of measure.By numerical simulations, the limiting variances of estimators allows us to conclude that the BE outperforms the MLE. In the situation where the sum of jumps is zero, we developed a numerical approach to obtain the MLE.Then we consider the problem of construction of goodness-of-test for a model with scale parameter. We show that the Cram´er-von Mises type test is asymptotically parameter-free. It is also consistent
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Pieczynski, Wojciech. "Sur diverses applications de la décantation des lois de probabilité dans la théorie générale de l'estimation statistique". Paris 6, 1986. http://www.theses.fr/1986PA066064.

Texto completo
Resumen
On cherche à construire des estimateurs convergents dans le cas des V. A. Non nécessairement indépendantes et équidistribuées. La méthode de la décantation est particulièrement adaptée car elle permet la construction explicite de tels estimateurs et donne des renseignements sur leur vitesse de convergence.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Cai, Chunhao. "Analyse statistique de quelques modèles de processus de type fractionnaire". Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1030/document.

Texto completo
Resumen
Cette thèse porte sur l’analyse statistique de quelques modèles de processus stochastiques gouvernés par des bruits de type fractionnaire, en temps discret ou continu.Dans le Chapitre 1, nous étudions le problème d’estimation par maximum de vraisemblance (EMV) des paramètres d’un processus autorégressif d’ordre p (AR(p)) dirigé par un bruit gaussien stationnaire, qui peut être à longue mémoire commele bruit gaussien fractionnaire. Nous donnons une formule explicite pour l’EMV et nous analysons ses propriétés asymptotiques. En fait, dans notre modèle la fonction de covariance du bruit est supposée connue, mais le comportement asymptotique de l’estimateur (vitesse de convergence, information de Fisher) n’en dépend pas.Le Chapitre 2 est consacré à la détermination de l’entrée optimale (d’un point de vue asymptotique) pour l’estimation du paramètre de dérive dans un processus d’Ornstein-Uhlenbeck fractionnaire partiellement observé mais contrôlé. Nous exposons un principe de séparation qui nous permet d’atteindre cet objectif. Les propriétés asymptotiques de l’EMV sont démontrées en utilisant le programme d’Ibragimov-Khasminskii et le calcul de transformées de Laplace d’une fonctionnellequadratique du processus.Dans le Chapitre 3, nous présentons une nouvelle approche pour étudier les propriétés du mouvement brownien fractionnaire mélangé et de modèles connexes, basée sur la théorie du filtrage des processus gaussiens. Les résultats mettent en lumière la structure de semimartingale et mènent à un certain nombre de propriétés d’absolue continuité utiles. Nous établissons l’équivalence des mesures induites par le mouvement brownien fractionnaire mélangé avec une dérive stochastique, et en déduisons l’expression correspondante de la dérivée de Radon-Nikodym. Pour un indice de Hurst H > 3=4, nous obtenons une représentation du mouvement brownien fractionnaire mélangé comme processus de type diffusion dans sa filtration naturelle et en déduisons une formule de la dérivée de Radon-Nikodym par rapport à la mesurede Wiener. Pour H < 1=4, nous montrons l’équivalence de la mesure avec celle la composante fractionnaire et obtenons une formule pour la densité correspondante. Un domaine d’application potentielle est l’analyse statistique des modèles gouvernés par des bruits fractionnaires mélangés. A titre d’exemple, nous considérons le modèle de régression linéaire de base et montrons comment définir l’EMV et étudié son comportement asymptotique
This thesis focuses on the statistical analysis of some models of stochastic processes generated by fractional noise in discrete or continuous time.In Chapter 1, we study the problem of parameter estimation by maximum likelihood (MLE) for an autoregressive process of order p (AR (p)) generated by a stationary Gaussian noise, which can have long memory as the fractional Gaussiannoise. We exhibit an explicit formula for the MLE and we analyze its asymptotic properties. Actually in our model the covariance function of the noise is assumed to be known but the asymptotic behavior of the estimator ( rate of convergence, Fisher information) does not depend on it.Chapter 2 is devoted to the determination of the asymptotical optimal input for the estimation of the drift parameter in a partially observed but controlled fractional Ornstein-Uhlenbeck process. We expose a separation principle that allows us toreach this goal. Large sample asymptotical properties of the MLE are deduced using the Ibragimov-Khasminskii program and Laplace transform computations for quadratic functionals of the process.In Chapter 3, we present a new approach to study the properties of mixed fractional Brownian motion (fBm) and related models, based on the filtering theory of Gaussian processes. The results shed light on the semimartingale structure andproperties lead to a number of useful absolute continuity relations. We establish equivalence of the measures, induced by the mixed fBm with stochastic drifts, and derive the corresponding expression for the Radon-Nikodym derivative. For theHurst index H > 3=4 we obtain a representation of the mixed fBm as a diffusion type process in its own filtration and derive a formula for the Radon-Nikodym derivative with respect to the Wiener measure. For H < 1=4, we prove equivalenceto the fractional component and obtain a formula for the corresponding derivative. An area of potential applications is statistical analysis of models, driven by mixed fractional noises. As an example we consider only the basic linear regression setting and show how the MLE can be defined and studied in the large sample asymptotic regime
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Rey, Clément. "Étude et modélisation des équations différentielles stochastiques". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1177/document.

Texto completo
Resumen
Durant les dernières décennies, l'essor des moyens technologiques et particulièrement informatiques a permis l'émergence de la mise en œuvre de méthodes numériques pour l'approximation d'Equations Différentielles Stochastiques (EDS) ainsi que pour l'estimation de leurs paramètres. Cette thèse aborde ces deux aspects et s'intéresse plus spécifiquement à l'efficacité de ces méthodes. La première partie sera consacrée à l'approximation d'EDS par schéma numérique tandis que la deuxième partie traite l'estimation de paramètres. Dans un premier temps, nous étudions des schémas d'approximation pour les EDSs. On suppose que ces schémas sont définis sur une grille de temps de taille $n$. On dira que le schéma $X^n$ converge faiblement vers la diffusion $X$ avec ordre $h in mathbb{N}$ si pour tout $T>0$, $vert mathbb{E}[f(X_T)-f(X_T^n)] vertleqslant C_f /n^h$. Jusqu'à maintenant, sauf dans certains cas particulier (schémas d'Euler et de Ninomiya Victoir), les recherches sur le sujet imposent que $C_f$ dépende de la norme infini de $f$ mais aussi de ses dérivées. En d'autres termes $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Notre objectif est de montrer que si le schéma converge faiblement avec ordre $h$ pour un tel $C_f$, alors, sous des hypothèses de non dégénérescence et de régularité des coefficients, on peut obtenir le même résultat avec $C_f=C Vert f Vert_{infty}$. Ainsi, on prouve qu'il est possible d'estimer $mathbb{E}[f(X_T)]$ pour $f$ mesurable et bornée. On dit alors que le schéma converge en variation totale vers la diffusion avec ordre $h$. On prouve aussi qu'il est possible d'approximer la densité de $X_T$ et ses dérivées par celle $X_T^n$. Afin d'obtenir ce résultat, nous emploierons une méthode de calcul de Malliavin adaptatif basée sur les variables aléatoires utilisées dans le schéma. L'intérêt de notre approche repose sur le fait que l'on ne traite pas le cas d'un schéma particulier. Ainsi notre résultat s'applique aussi bien aux schémas d'Euler ($h=1$) que de Ninomiya Victoir ($h=2$) mais aussi à un ensemble générique de schémas. De plus les variables aléatoires utilisées dans le schéma n'ont pas de lois de probabilité imposées mais appartiennent à un ensemble de lois ce qui conduit à considérer notre résultat comme un principe d'invariance. On illustrera également ce résultat dans le cas d'un schéma d'ordre 3 pour les EDSs unidimensionnelles. La deuxième partie de cette thèse traite le sujet de l'estimation des paramètres d'une EDS. Ici, on va se placer dans le cas particulier de l'Estimateur du Maximum de Vraisemblance (EMV) des paramètres qui apparaissent dans le modèle matriciel de Wishart. Ce processus est la version multi-dimensionnelle du processus de Cox Ingersoll Ross (CIR) et a pour particularité la présence de la fonction racine carrée dans le coefficient de diffusion. Ainsi ce modèle permet de généraliser le modèle d'Heston au cas d'une covariance locale. Dans cette thèse nous construisons l'EMV des paramètres du Wishart. On donne également la vitesse de convergence et la loi limite pour le cas ergodique ainsi que pour certains cas non ergodiques. Afin de prouver ces convergences, nous emploierons diverses méthodes, en l'occurrence : les théorèmes ergodiques, des méthodes de changement de temps, ou l'étude de la transformée de Laplace jointe du Wishart et de sa moyenne. De plus, dans dernière cette étude, on étend le domaine de définition de cette transformée jointe
The development of technology and computer science in the last decades, has led the emergence of numerical methods for the approximation of Stochastic Differential Equations (SDE) and for the estimation of their parameters. This thesis treats both of these two aspects. In particular, we study the effectiveness of those methods. The first part will be devoted to SDE's approximation by numerical schemes while the second part will deal with the estimation of the parameters of the Wishart process. First, we focus on approximation schemes for SDE's. We will treat schemes which are defined on a time grid with size $n$. We say that the scheme $ X^n $ converges weakly to the diffusion $ X $, with order $ h in mathbb{N} $, if for every $ T> 0 $, $ vert mathbb{E} [f (X_T) -f (X_T^n)]vert leqslant C_f / h^n $. Until now, except in some particular cases (Euler and Victoir Ninomiya schemes), researches on this topic require that $ C_f$ depends on the supremum norm of $ f $ as well as its derivatives. In other words $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Our goal is to show that, if the scheme converges weakly with order $ h $ for such $C_f$, then, under non degeneracy and regularity assumptions, we can obtain the same result with $ C_f=C Vert f Vert_{infty}$. We are thus able to estimate $mathbb{E} [f (X_T)]$ for a bounded and measurable function $f$. We will say that the scheme converges for the total variation distance, with rate $h$. We will also prove that the density of $X^n_T$ and its derivatives converge toward the ones of $X_T$. The proof of those results relies on a variant of the Malliavin calculus based on the noise of the random variable involved in the scheme. The great benefit of our approach is that it does not treat the case of a particular scheme and it can be used for many schemes. For instance, our result applies to both Euler $(h = 1)$ and Ninomiya Victoir $(h = 2)$ schemes. Furthermore, the random variables used in this set of schemes do not have a particular distribution law but belong to a set of laws. This leads to consider our result as an invariance principle as well. Finally, we will also illustrate this result for a third weak order scheme for one dimensional SDE's. The second part of this thesis deals with the topic of SDE's parameter estimation. More particularly, we will study the Maximum Likelihood Estimator (MLE) of the parameters that appear in the matrix model of Wishart. This process is the multi-dimensional version of the Cox Ingersoll Ross (CIR) process. Its specificity relies on the square root term which appears in the diffusion coefficient. Using those processes, it is possible to generalize the Heston model for the case of a local covariance. This thesis provides the calculation of the EMV of the parameters of the Wishart process. It also gives the speed of convergence and the limit laws for the ergodic cases and for some non-ergodic case. In order to obtain those results, we will use various methods, namely: the ergodic theorems, time change methods or the study of the joint Laplace transform of the Wishart process together with its average process. Moreover, in this latter study, we extend the domain of definition of this joint Laplace transform
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Courtois, Jérôme. "Leak study of cryptosystem implementations in randomized RNS arithmetic". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS290.

Texto completo
Resumen
On parlera d'analyse forte pour une analyse qui permet de retrouver la clef d'un système cryptographique et d'une analyse faible dans le cas où on élimine des clefs candidates. Le but de cette thèse est essentiellement la compréhension du comportement de l'aléa des distances de Hamming produites par un système cryptographique de type ECC (Elliptic Curve for Cryptography) quand on utilise une représentation RNS (Residue Number System) avec la méthode des moduli aléatoires. Le Chapitre 2 introduit les différentes notions nécessaires à la compréhension de ce document. Il introduit brièvement l'algorithme de multiplication modulaire (Algorithme de Montgomery pour RNS) qui a inspiré la méthode des moduli aléatoires. Puis il décrit l'algorithme qui génère les séquences de distances de Hamming nécessaires à notre analyse. Ensuite il montre quel niveau de résistance apporte la méthode des moduli aléatoires contre différentes attaques classiques comme DPA (Diferential Power Analysis), CPA (Correlation Power Analysis), DPA du second ordre et MIA (Mutual Information Analysis). On apporte une compréhension de la distribution des distances de Hamming considérées comme des variables aléatoires. Suite à cela, on ajoute l'hypothèse gaussienne sur les distances de Hamming. On utilise alors le MLE (Maximum Likelihood Estimator) et une analyse forte comme pour faire des Template Attacks pour avoir une compréhension fine du niveau d'aléa apporté par la méthode des moduli aléatoires. Le Chapitre 3 est une suite naturelle des conclusions apportées par le Chapitre 2 sur l'hypothèse gaussienne. Si des attaques sont possibles avec le MLE, c'est qu'il existe sans doute des relations fortes entre les distances de Hamming considérées comme des variables aléatoires. La Section 3.2 cherche à quantifier ce niveau de dépendance des distances de Hamming. Ensuite, en restant dans l'hypothèse gaussienne, on remarquera qu'il est possible de construire une type de DPA qu'on a appelé DPA square reposant sur la covariance au lieu de la moyenne comme dans la DPA classique. Mais cela reste très gourmand en traces d'observation d'autant que dans de nombreux protocoles utilisant une ECC, on utilise une clef qu'une seule fois. La Section 3.4 s'efforce de montrer qu'il existe de l'information sur peu de traces de distances de Hamming malgré la randomisation des moduli. Pour cela, on fait un MLE par un conditionnement sur l'une des distances de Hamming avec une analyse faible. Le dernier Chapitre 4 commence par introduire brièvement les choix algorithmiques qui ont été faits pour résoudre les problèmes d'inversion de matrices de covariance (symétriques définies positives) de la Section 3.2 et l'analyse des relations fortes entre les Hamming dans la Section 3.2. On utilise ici des outils de Graphics Processing Unit (GPU) sur un très grand nombre de matrices de petites tailles. On parlera de Batch Computing. La méthode LDLt présentée au début de ce chapitre s'est avérée insuffisante pour résoudre complètement le problème du MLE conditionné présenté dans la Section 3.4. On présente le travail sur l'amélioration d'un code de diagonalisation de matrice tridiagonale utilisant le principe de Diviser pour Régner (Divide & Conquer) développé par Lokmane Abbas-Turki et Stéphane Graillat. On présente une généralisation de ce code, des optimisations en temps de calcul et une amélioration de la robustesse des calculs en simple précision pour des matrices de taille inférieure à 32
We will speak of strong analysis for an analysis which makes it possible to find the key to a cryptographic system. We define a weak analysis in the case where candidate keys are eliminated. The goal of this thesis is to understand the behavior of the random of Hamming distances produced by an ECC (Elliptic Curve for Cryptography) cryptographic system when using a RNS (Residue Number System) representation with the random moduli method. Chapter 2 introduces the different concepts for understanding this document. He brieflyintroducesthemodularmultiplicationalgorithm(MontgomeryalgorithmforRNS) which inspired the method of random moduli. Then it describes the algorithm which generatestheHammingdistancesequencesnecessaryforouranalysis. Thenitshowswhat level of resistance brings the method of random moduli against different classic attacks like DPA (Diferrential Power Analysis), CPA (Correlation Power Analysis), DPA of the second order and MIA (Mutual Information Analysis). We provide an understanding of the distribution of Hamming distances considered to be random variables. Following this, we add the Gaussian hypothesis on Hamming distances. We use MLE (Maximum Likelihood Estimator) and a strong analysis as to make Template Attacks to have a fine understanding of the level of random brought by the method of random moduli. The last Chapter 4 begins by briefly introducing the algorithmic choices which have been made to solve the problems of inversion of covariance matrices (symmetric definite positive) of Section 2.5 and the analysis of strong relationships between Hamming in Section 3.2. We use here Graphics Processing Unit (GPU) tools on a very large number of small size matrices. We talk about Batch Computing. The LDLt method presented at the beginning of this chapter proved to be insufficient to completely solve the problem of conditioned MLE presented in Section 3.4. We present work on the improvement of a diagonalization code of a tridiagonal matrix using the principle of Divide & Conquer developed by Lokmane Abbas-Turki and Stéphane Graillat. We present a generalization of this code, optimizations in computation time and an improvement of the accuracy of computations in simple precision for matrices of size lower than 32
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Gassem, Anis. "Test d'ajustement d'un processus de diffusion ergodique à changement de régime". Phd thesis, Université du Maine, 2010. http://tel.archives-ouvertes.fr/tel-00543318.

Texto completo
Resumen
Nous considérons les tests d'ajustement de type Cramér-von Mises pour tester l'hypothèse que le processus de diffusion observé est un "switching diffusion", c'est-à-dire un processus de diffusion à changement de régime dont la dérive est de type signe. Ces tests sont basés sur la fonction de répartition empirique et la densité empirique. Il est montré que les distributions limites des tests statistiques proposés sont définis par des fonctionnelles de type intégrale des processus Gaussiens continus. Nous établissons les développements de Karhunen-Loève des processus limites correspondants. Ces développements nous permettent de simplifier le problème du calcul des seuils. Nous étudions le comportement de ces statistiques sous les alternatives et nous montrons que ces tests sont consistants. Pour traiter les hypothèses de base composite nous avons besoin de connaître le comportement asymptotique des estimateurs statistiques des paramètres inconnus, c'est pourquoi nous considérons le problème de l'estimation des paramètres pour le processus de diffusion à changement de régime. Nous supposons que le paramètre inconnu est à deux dimensions et nous décrivons les propriétés asymptotiques de l'estimateur de maximum de vraisemblance et de l'estimateur bayésien dans ce cas. L'utilisation de ces estimateurs nous ramène à construire les tests de type Cramér-von Mises correspondants et à étudier leurs distributions limites. Enfin, nous considérons deux tests de type Cramér-von Mises de processus de diffusion ergodiques dans le cas général. Il est montré que pour le choix de certaines des fonctions de poids ces tests sont asymptotiquement " distribution-free ". Pour certains cas particuliers, nous établissons les expressions explicites des distributions limites de ces statistiques par le calcul direct de la transformée de Laplace.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Du, Roy de Chaumaray Marie. "Estimation statistique des paramètres pour les processus de Cox-Ingersoll-Ross et de Heston". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0299/document.

Texto completo
Resumen
Les processus de Cox-Ingersoll-Ross et de Heston jouent un rôle prépondérant dans la modélisation mathématique des cours d’actifs financiers ou des taux d’intérêts. Dans cette thèse, on s’intéresse à l’estimation de leurs paramètres à partir de l’observation en temps continu d’une de leurs trajectoires. Dans un premier temps, on se place dans le cas où le processus CIR est géométriquement ergodique et ne s’annule pas. On établit alors un principe de grandes déviationspour l’estimateur du maximum de vraisemblance du couple des paramètres de dimension et de dérive d’un processus CIR. On établit ensuite un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres d’un processus de Heston, ainsi que pour l’estimateur du maximum de vraisemblance du couple des paramètres d’un processus CIR. Contrairement à ce qui a été fait jusqu’ici dans la littérature,les paramètres sont estimés simultanément. Dans un second temps, on ne se restreint plus au cas où le processus CIR n’atteint jamais zéro et on propose un nouvel estimateur des moindres carrés pondérés pour le quadruplet des paramètres d’un processus de Heston.On établit sa consistance forte et sa normalité asymptotique, et on illustre numériquement ses bonnes performances
The Cox-Ingersoll-Ross process and the Heston process are widely used in financial mathematics for pricing and hedging or to model interest rates. In this thesis, we focus on estimating their parameters using continuous-time observations. Firstly, we restrict ourselves to the most tractable situation where the CIR processis geometrically ergodic and does not vanish. We establish a large deviations principle for the maximum likelihood estimator of the couple of dimensionnal and drift parameters of a CIR process. Then we establish a moderate deviations principle for the maximum likelihood estimator of the four parameters of an Heston process, as well as for the maximum likelihood estimator of the couple of parameters of a CIR process. In contrast to the previous literature, parameters are estimated simultaneously. Secondly, we do not restrict ourselves anymore to the case where the CIR process never reaches zero and we introduce a new weighted least squares estimator for the quadruplet of parameters of an Heston process. We establish its strong consitency and asymptotic normality, and we illustrate numerically its good performances
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Abeida, Habti. "Imagerie d'antenne pour signaux non circulaires : bornes de performance et algorithmes". Paris 6, 2006. http://www.theses.fr/2006PA066330.

Texto completo
Resumen
La conception et l'étude des performances statistiques d'algorithmes du second ordre de type sous espace dans le cas de sources complexes non circulaires affectées par un bruit additif blanc uniforme gaussien complexe circulaire. * le calcul d'expressions analytiques interprétables de la borne de Cramer Rao stochastique du paramètre de DOA seul de signaux gaussiens complexes non circulaires sous différents modèles de corrélations spatiales de bruits gaussiens complexes circulaires. * le calcul d'expressions analytiques interprétables de la borne de Cramer Rao stochastique du paramètre de DOA seul pour des signaux de modulations BPSK, MSK et QPSK dans le cas de bruit additif blanc uniforme ou non uniforme gaussien complexe circulaire. Des expressions de limites de résolution ont été comparées à celles du cas gaussien. * l'extension des résultats standards sur l'estimateur asymptotiquement de variance minimale (AMV) au cas singulier (première matrice de covariance singulière). Application à des statistiques composées de différents projecteurs orthogonaux estimés associés à différents sous espaces bruit. * l'efficacité enfin des estimateurs AMV basés sur des statistiques formées par des projecteurs orthogonaux estimés associés à des sous espaces du modèle gaussien général où le paramètre est identifiable par différents projecteurs orthogonaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Henkouche, Meriem. "Estimateurs du maximum de vraisemblance dans des processus autorégressifs non-linéaires". Toulouse 3, 1989. http://www.theses.fr/1989TOU30216.

Texto completo
Resumen
Cette these est constituee de quatre parties: la premiere est consacree aux proprietes d'ergodicite du processus autoregressif non lineaire. Dans la deuxieme partie on etudie la consistance, la normalite asymptotique de la suite des estimateurs du maximum de vraisemblance; les resultats se deduisent en eprouvant la methode d'ibragimov. On y etablit une inegalite de grande deviation. Dans la troisieme partie on s'interesse au theoreme central limite pour des variables aleatoires harris recurrentes pour lesquelles la condition de cramer n'est pas satisfaite; on demontre que le reste de convergence est de l'ordre de 1/n. Dans la derniere partie, une vitesse de convergence en loi de l'estimateur du maximum de vraisemblance de l'ordre de 1/n est demontree en appliquant les resultats de la troisieme partie et des resultats d'analyse convexe
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Poignard, Benjamin. "Approches nouvelles des modèles GARCH multivariés en grande dimension". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED010/document.

Texto completo
Resumen
Ce document traite du problème de la grande dimension dans des processus GARCH multivariés. L'auteur propose une nouvelle dynamique vine-GARCH pour des processus de corrélation paramétrisés par un graphe non dirigé appelé "vine". Cette approche génère directement des matrices définies-positives et encourage la parcimonie. Après avoir établi des résultats d'existence et d'unicité pour les solutions stationnaires du modèle vine-GARCH, l'auteur analyse les propriétés asymptotiques du modèle. Il propose ensuite un cadre général de M-estimateurs pénalisés pour des processus dépendants et se concentre sur les propriétés asymptotiques de l'estimateur "adaptive Sparse Group Lasso". La grande dimension est traitée en considérant le cas où le nombre de paramètres diverge avec la taille de l'échantillon. Les résultats asymptotiques sont illustrés par des expériences simulées. Enfin dans ce cadre l'auteur propose de générer la sparsité pour des dynamiques de matrices de variance covariance. Pour ce faire, la classe des modèles ARCH multivariés est utilisée et les processus correspondants à celle-ci sont estimés par moindres carrés ordinaires pénalisés
This document contributes to high-dimensional statistics for multivariate GARCH processes. First, the author proposes a new dynamic called vine-GARCH for correlation processes parameterized by an undirected graph called vine. The proposed approach directly specifies positive definite matrices and fosters parsimony. The author provides results for the existence and uniqueness of stationary solution of the vine-GARCH model and studies its asymptotic properties. He then proposes a general framework for penalized M-estimators with dependent processes and focuses on the asymptotic properties of the adaptive Sparse Group Lasso regularizer. The high-dimensionality setting is studied when considering a diverging number of parameters with the sample size. The asymptotic properties are illustrated through simulation experiments. Finally, the author proposes to foster sparsity for multivariate variance covariance matrix processes within the latter framework. To do so, the multivariate ARCH family is considered and the corresponding parameterizations are estimated thanks to penalized ordinary least square procedures
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Rachedi, Fatiha. "Estimateurs cribles des processus autorégressifs Banachiques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00012194.

Texto completo
Resumen
Le modèle autorégressif dans un espace de Banach (ARB) permet
de représenter des processus à temps continu. Nous considérons
l'estimation de l'opérateur d'autocorrelation d'un ARB(1). Les
méthodes classiques d'estimation (maximum de vraisemblance et
moindres carrées) s'avèrent inadéquates quand l'espace
paramétrique est de dimension infinie, Grenander (1983} a proposé
d'estimer le paramètre sur un sous espace de dimension en général
finie m, puis d'étudier la consistance de cet estimateur lorsque
la dimension m tend vers l'infini avec le nombres d'observations
à vitesse convenable. Cette méthode est dite méthode des cribles.
Notons que plus généralement il serait possible d'utiliser la
méthode des f-divergences. Nous définissons la méthode des
moindres carrées comme problème d'optimisation dans un espace de
Banach dans le cas ou l'opérateur est p-sommable,
p>1. Nous montrons la convergence de l'estimateur
crible et sa normalité asymptotique dans le cas d'un opérateur est
strictement -intégral. Nous utilisons la représentation duale
de la f-divergence pour définir l'estimateur du minimum des
f-divergences. Nous nous limitons ici à l'étude de
l'estimateur dit du minimum de KL-divergence (divergence de
Kullback-Leibler). Cet estimateur est celui
du maximum de vraisemblance. Nous montrons par la suite qu'il
converge presque surement vers la vraie valeur du paramètre
pour la norme des opérateurs p-sommables. La démonstration est
basée sur les techniques de Geman et Hwang (1982), utilisées pour
des observations indépendantes et identiquement distribuées, qu'on
a adapté au cas autorégressif.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Kengne, William Charky. "Détection des ruptures dans les processus causaux : application aux débits du bassin versant de la Sanaga au Cameroun". Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00695364.

Texto completo
Resumen
Cette thèse porte sur la détection de rupture dans les processus causaux avec application aux débits du bassin versant de la Sanaga. Nous considérons une classe semi-paramétrique de modèles causaux contenant des processus classique tel que l'AR, ARCH, TARCH. Le chapitre 1 est une synthèse des travaux. Il présente le modèle avec des exemples et donne les principaux résultats obtenus aux chapitres 2, 3,4. Le chapitre 2 porte sur la détection off-line de ruptures multiples en utilisant un critère de vraisemblance pénalisée. Le nombre de rupture, les instants de rupture et les paramètres du modèle sur chaque segment sont inconnus. Ils sont estimés par maximisation d'un contraste construit à partir des quasi-vraisemblances et pénalisées par le nombre de ruptures. Nous donnons les choix possibles du paramètre de pénalité et montrons que les estimateurs des paramètres du modèle sont consistants avec des vitesses optimales. Pour des applications pratiques, un estimateur adaptatif du paramètre de pénalité basé sur l'heuristique de la pente est proposé. La programmation dynamique est utilisée pour réduire le coût numérique des opérations, celui-ci est désormais de l'ordre de $\mathcal{O}(n^2)$. Des comparaisons faites avec des résultats existants montrent que notre procédure est plus stable et plus robuste. Le chapitre 3 porte toujours sur la détection off-line de ruptures multiples, mais cette fois en utilisant une procédure de test. Nous avons construit une nouvelle procédure qui, combinée avec un algorithme de type ICSS (Itereted Cumulative Sums of Squares) permet de détecter des ruptures multiples dans des processus causaux. Le test est consistant en puissance et la comparaison avec des procédures existantes montre qu'il est plus puissant. Le chapitre 4 étudie la détection des ruptures on-line dans la classe de modèle considéré aux chapitres 2 et 3. Une procédure basée sur la quasi-vraisemblance des observations a été développée. La procédure est consistante en puissance et le délai de détection est meilleur que celui des procédures existantes. Le chapitre 5 est consacré aux applications aux débits du bassin versant de la Sanaga, les procédures décrites aux chapitres 2 et 3 ont été utilisées en appliquant un modèle ARMA sur les données désaisonnalisées et standardisées. Ces deux procédures ont détecté des ruptures qui sont "proches".
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Zaïdi, Abdelhamid. "Séparation aveugle d'un mélange instantané de sources autorégressives gaussiennes par la méthode du maximum de vraissemblance exact". Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10233.

Texto completo
Resumen
Cette these est consacree a l'etude du probleme de la separation aveugle d'un melange instantane de sources gaussiennes autoregressives, sans bruit additif, par la methode du maximum de vraisemblance exact. La maximisation de la vraisemblance est decomposee, par relaxation, en deux sous-problemes d'optimisation, egalement traites par des techniques de relaxation. Le premier consiste en l'estimation de la matrice de separation a structure autoregressive des sources fixee. Le second est d'estimer cette structure lorsque la matrice de separation est fixee. Le premier probleme est equivalent a la maximisation du determinant de la matrice de separation sous contraintes non lineaires. Nous donnons un algorithme de calcul de la solution de ce probleme pour lequel nous precisons les conditions de convergence. Nous montrons l'existence de l'estimateur du maximum de vraisemblance dont nous prouvons la consistance. Nous determinons egalement la matrice d'information de fisher relative au parametre global et nous proposons un indice pour mesurer les performances des methodes de separation. Puis nous analysons, par simulation, les performances de l'estimateur ainsi defini et nous montrons l'amelioration qu'il apporte a la procedure de quasi-maximum de vraisemblance ainsi qu'aux autres methodes du second ordre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Gharbi, Zied. "Contribution à l’économétrie spatiale et l’analyse de données fonctionnelles". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1A012/document.

Texto completo
Resumen
Ce mémoire de thèse touche deux champs de recherche importants en statistique inférentielle, notamment l’économétrie spatiale et l’analyse de données fonctionnelles. Plus précisément, nous nous sommes intéressés à l’analyse de données réelles spatiales ou spatio-fonctionnelles en étendant certaines méthodes inférentielles pour prendre en compte une éventuelle dépendance spatiale. Nous avons d’abord considéré l’estimation d’un modèle autorégressif spatiale (SAR) ayant une variable dépendante fonctionnelle et une variable réponse réelle à l’aide d’observations sur une unité géographique donnée. Il s’agit d’un modèle de régression avec la spécificité que chaque observation de la variable indépendante collectée dans un emplacement géographique dépend d’observations de la même variable dans des emplacements voisins. Cette relation entre voisins est généralement mesurée par une matrice carrée nommée matrice de pondération spatiale et qui mesure l’effet d’interaction entre les unités spatiales voisines. Cette matrice est supposée exogène c’est-à-dire la métrique utilisée pour la construire ne dépend pas des mesures de variables explicatives du modèle. L’apport de cette thèse sur ce modèle réside dans le fait que la variable explicative est de nature fonctionnelle, à valeurs dans un espace de dimension infinie. Notre méthodologie d’estimation est basée sur une réduction de la dimension de la variable explicative fonctionnelle, par l’analyse en composantes principales fonctionnelles suivie d’une maximisation de la vraisemblance tronquée du modèle. Des propriétés asymptotiques des estimateurs, des illustrations des performances des estimateurs via une étude de Monte Carlo et une application à des données réelles environnementales ont été considérées. Dans la deuxième contribution, nous reprenons le modèle SAR fonctionnel étudié dans la première partie en considérant une structure endogène de la matrice de pondération spatiale. Au lieu de se baser sur un critère géographique pour calculer les dépendances entre localisations voisines, nous calculons ces dernières via un processus endogène, c’est-à-dire qui dépend des variables à expliquées. Nous appliquons la même approche d’estimation à deux étapes décrite ci-dessus, nous étudions aussi les performances de l’estimateur proposé pour des échantillons à taille finie et discutons le cadre asymptotique. Dans la troisième partie de cette contribution, nous nous intéressons à l’hétéroscédasticité dans les modèles partiellement linéaires pour variables exogènes réelles et variable réponse binaire. Nous proposons un modèle Probit spatial contenant une partie non-paramétrique. La dépendance spatiale est introduite au niveau des erreurs (perturbations) du modèle considéré. L’estimation des parties paramétrique et non paramétrique du modèle est récursive et consiste à fixer d’abord les composants paramétriques et à estimer la partie non paramétrique à l’aide de la méthode de vraisemblance pondérée puis utiliser cette dernière estimation pour construire un profil de la vraisemblance pour estimer la partie paramétrique. La performance de la méthode proposée est étudiée via une étude Monte Carlo. La contribution finit par une étude empirique sur la relation entre la croissance économique et la qualité environnementale en Suède à l’aide d’outils de l’économétrie spatiale
This thesis covers two important fields of research in inferential statistics, namely spatial econometrics and functional data analysis. More precisely, we have focused on the analysis of real spatial or spatio-functional data by extending certain inferential methods to take into account a possible spatial dependence. We first considered the estimation of a spatial autoregressive model (SAR) with a functional dependent variable and a real response variable using observations on a given geographical unit. This is a regression model with the specificity that each observation of the independent variable collected in a geographical location depends on observations of the same variable in neighboring locations. This relationship between neighbors is generally measured by a square matrix called the spatial weighting matrix, which measures the interaction effect between neighboring spatial units. This matrix is assumed to be exogenous, i.e. the metric used to construct it does not depend on the explanatory variable. The contribution of this thesis to this model lies in the fact that the explanatory variable is of a functional nature, with values in a space of infinite dimension. Our estimation methodology is based on a dimension reduction of the functional explanatory variable through functional principal component analysis followed by maximization of the truncated likelihood of the model. Asymptotic properties of the estimators, illustrations of the performance of the estimators via a Monte Carlo study and an application to real environmental data were considered. In the second contribution, we use the functional SAR model studied in the first part by considering an endogenous structure of the spatial weighting matrix. Instead of using a geographical criterion to calculate the dependencies between neighboring locations, we calculate them via an endogenous process, i.e. one that depends on explanatory variables. We apply the same two-step estimation approach described above and study the performance of the proposed estimator for finite or infinite-tending samples. In the third part of this thesis we focus on heteroskedasticity in partially linear models for real exogenous variables and binary response variable. We propose a spatial Probit model containing a non-parametric part. Spatial dependence is introduced at the level of errors (perturbations) of the model considered. The estimation of the parametric and non-parametric parts of the model is recursive and consists of first setting the parametric parameters and estimating the non-parametric part using the weighted likelihood method and then using the latter estimate to construct a likelihood profile to estimate the parametric part. The performance of the proposed method is investigated via a Monte-Carlo study. An empirical study on the relationship between economic growth and environmental quality in Sweden using some spatial econometric tools finishes the document
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Stupfler, Gilles. "Un modèle de Markov caché en assurance et Estimation de frontière et de point terminal". Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00638368.

Texto completo
Resumen
Cette thèse est divisée en deux parties indépendantes. Dans une première partie, on introduit et on étudie un nouveau processus de pertes en assurance : c'est un triplet (J, N, S) où (J, N) est un processus de Poisson à modulation markovienne et S est un processus dont toutes les composantes sont des fonctions en escalier, croissantes en temps. Le processus S est supposé à accroissements indépendants conditionnellement au processus (J, N). En faisant une hypothèse paramétrique sur la loi de ses sauts, on démontre que l'estimateur du maximum de vraisemblance des paramètres du modèle est consistant. On donne un algorithme EM permettant de calculer en pratique cet estimateur : le procédé ainsi développé est utilisé sur des données réelles en assurance et ses performances sont évaluées sur simulations. Dans une seconde partie, on s'intéresse au problème de l'estimation du point terminal, supposé fini, d'une fonction de répartition F : étant donné un échantillon de variables aléatoires indépendantes identiquement distribuées de fonction de répartition F, on construit un estimateur du point terminal à droite de F en utilisant une méthode des moments d'ordre élevé. L'étude est scindée en deux cas : dans un premier temps, on suppose que les variables sont positives, puis on généralise la méthode au cas où elles sont de signe quelconque en proposant un autre estimateur. On étudie les propriétés asymptotiques de nos estimateurs, et leurs performances sont examinées sur simulations. On s'inspire ensuite des techniques développées pour construire un estimateur de la frontière du support d'un couple aléatoire. On étudie ses propriétés asymptotiques, et on le compare à des estimateurs classiques dans ce cadre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Telmoudi, Fedya. "Estimation and misspecification Risks in VaR estimation". Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30061/document.

Texto completo
Resumen
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation
In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Barbiero, Franck. "Antibrouillage de récepteur GNSS embarqué sur hélicoptère". Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0052.

Texto completo
Resumen
En environnements hostiles, les signaux GNSS (Global Navigation Satellite System)peuvent être soumis à des risques de brouillages intentionnels. Basées sur un réseau d'antennes adaptatif, les solutions spatio-temporelles (STAP) ont déjà montré de bonnes performances de réjection des interférences. Toutefois, lorsque le module GNSS est placé sous les pales d'un hélicoptère, des effets non-stationnaires, appelés Rotor Blade Modulation (RBM), créés par les multiples réflexions du signal sur les pales du rotor, peuvent dégrader les techniques usuelles d’antibrouillage. Le signal utile GNSS n’est alors plus accessible. Le travail de la thèse consiste donc à élaborer un système de protection des signaux GNSS adapté à la RBM. Pour cela, un modèle innovant de multitrajets, adapté à ce type de phénomène, a été développé. La comparaison de simulations électromagnétiques représentatives et de mesures expérimentales sur hélicoptère EC-120 a permis de valider ce modèle. Celui-ci permet d'estimer, par maximum de vraisemblance, les paramètres de la contribution non-stationnaire du signal reçu. Enfin, l'association d'un algorithme de filtrage des multitrajets par projection oblique et d'un traitement STAP permet d'éliminer la contribution dynamique puis statique de l'interférence. Les simulations montrent que le signal utile GNSS est alors de nouveau exploitable
In hostile environments, Global Navigation Satellite System (GNSS) can be disturbed by intentional jamming. Using antenna arrays, space-time adaptive algorithm (STAP) isone of the most efficient methods to deal with these threats. However, when a GNSS receiver is placed near rotating bodies, non-stationary effects called Rotor Blade Modulation (RBM) are created by the multipaths on the blades of the helicopter. They can degrade significantly the anti-jamming system and the signal of interest could belost. The work of the thesis is, consequently, to develop a GNSS protection system adapted to the RBM. In this way, an innovative multipath model, adapted to this phenomenon, has been developed. The model is then confirmed by comparison with a symptotic electromagnetic simulations and experiments conducted on an EC-120helicopter. Using a Maximum Likelihood algorithm, the parameters of the non-stationary part of the received signal have been estimated. And finally, the RBM anti-jamming solution, combining oblique projection algorithm and academic STAP, can mitigate dynamic and static contributions of interferences. In the end, the navigation information is available again
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Do, Van-Cuong. "Analyse statistique de processus stochastiques : application sur des données d’orages". Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS526/document.

Texto completo
Resumen
Les travaux présentés dans cette thèse concernent l'analyse statistique de cas particuliers du processus de Cox. Dans une première partie, nous proposons une synthèse des résultats existants sur le processus power-law (processus d'intensité puissance), synthèse qui ne peut être exhaustive étant donné la popularité de ce processus. Nous considérons une approche bayésienne pour l'inférence des paramètres de ce processus qui nous conduit à introduire et à étudier en détails une distribution que nous appelons loi H-B. Cette loi est une loi conjuguée. Nous proposons des stratégies d'élicitation des hyperparamètres et étudions le comportement des estimateurs de Bayes par des simulations. Dans un deuxième temps, nous étendons ces travaux au cas du processus d’intensité exponentielle (exponential-law process). De la même façon, nous définissons et étudions une loi conjuguée pour l'analyse bayésienne de ce dernier. Dans la dernière partie de la thèse, nous considérons un processus auto-excité qui intègre une covariable. Ce travail est motivé, à l'origine, par un problème de fiabilité qui concerne des données de défaillances de matériels exposés à des environnements sévères. Les résultats sont illustrés par des applications sur des données d'activités orageuses collectées dans deux départements français. Enfin, nous donnons quelques directions de travail et perspectives de futurs développements de l'ensemble de nos travaux
The work presented in this PhD dissertation concerns the statistical analysis of some particular cases of the Cox process. In a first part, we study the power-law process (PLP). Since the literature for the PLP is abundant, we suggest a state-of-art for the process. We consider the classical approach and recall some important properties of the maximum likelihood estimators. Then we investigate a Bayesian approach with noninformative priors and conjugate priors considering different parametrizations and scenarios of prior guesses. That leads us to define a family of distributions that we name H-B distribution as the natural conjugate priors for the PLP. Bayesian analysis with the conjugate priors are conducted via a simulation study and an application on real data. In a second part, we study the exponential-law process (ELP). We review the maximum likelihood techniques. For Bayesian analysis of the ELP, we define conjugate priors: the modified- Gumbel distribution and Gamma-modified-Gumbel distribution. We conduct a simulation study to compare maximum likelihood estimates and Bayesian estimates. In the third part, we investigate self-exciting point processes and we integrate a power-law covariate model to this intensity of this process. A maximum likelihood procedure for the model is proposed and the Bayesian approach is suggested. Lastly, we present an application on thunderstorm data collected in two French regions. We consider a strategy to define a thunderstorm as a temporal process associated with the charges in a particular location. Some selected thunderstorms are analyzed. We propose a reduced maximum likelihood procedure to estimate the parameters of the Hawkes process. Then we fit some thunderstorms to the power-law covariate self-exciting point process taking into account the associated charges. In conclusion, we give some perspectives for further work
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Fallaha, Mouna. "Contribution à l'étude asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle des paramètres de champs de Markov". Pau, 2001. http://www.theses.fr/2001PAUU3018.

Texto completo
Resumen
Nous nous intéressons à l'étude des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens. Le premier chapitre est consacre à une présentation de champs de Gibbs et de Markov. Puis nous donnons quelques méthodes d'estimations des paramètres de ces champs, ainsi que quelques méthodes de reconstruction d'image à partir des observations données. Dans le chapitre 2, nous présentons une revue d'une part sur les théorèmes de la limite centrale des champs aléatoires sur un réseau et d'autre part sur les propriétés asymptotiques des estimateurs de paramètres de champs de Gibbs markoviens. Dans le chapitre 3, on étudie la consistance et la normalité asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens et stationnaires. Deux cas sont considérés, celui ou l'énergie dépend linéairement des paramètres, puis celui ou la dépendance est non-linéaire. Pour obtenir la normalité asymptotique de ces estimateurs, nous adoptons deux nouvelles techniques d'approximation par des martingales pour les champs aléatoires. Dans le dernier chapitre, nous mettons en oeuvre des simulations numériques qui ont pour but de vérifier les résultats théoriques des propriétés asymptotiques des estimateurs du maximum de la pseudo-vraisemblance conditionnelle, nous calculons aussi les variances asymptotiques approchées de ces estimateurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Motrunich, Anastasiia. "Estimation des paramètres pour les séquences de Markov avec application dans des problèmes médico-économiques". Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA1009/document.

Texto completo
Resumen
Dans la première partie de cette thèse, nous considérons plusieurs problèmes d'estimation de paramètre de dimension finie pour les séquences de Markov dans l'asymptotique des grands échantillons. Le comportement asymptotique des estimateurs bayésiens et les estimateurs obtenus par la méthode des moments sont décrits. Nous montrons que sous les conditions de régularité ces estimateurs sont consistants et asymptotiquement normaux et que l'estimateur bayésien est asymptotiquement efficace. Les estimateur-processus du maximum de vraisemblance un-pas et deux-pas sont étudiés. Ces estimateurs nous permettent de construire des estimateurs asymptotiquement efficaces sur la base de certainsestimateurs préliminaires, par exemple, les estimateurs obtenus par la méthode des moments ou l'estimateur deBayes et la structure de l'estimateur du maximum de vraisemblance un-pas. Nous proposons notamment des processus autorégressifs non linéaires comme exemple et nous illustrons les propriétés de ces estimateurs à l'aide de simulations numériques. Dans la deuxième partie, nous donnons les applications de processus de Markov en économie de la santé. Nous comparons les modèles de Markov homogènes et non-homogènes pour l'analyse coût-efficacité de l'utilisation depansements transparents contenant un gel de gluconate de chlorhexidine par rapport aux pansements transparents standard. Le pansement antimicrobien protège les accès vasculaire centrale et réduit le risque de bactériémies liées aux cathéters. L'impact de l'approche de modélisation sur la décision d'adopter des pansements antimicrobiens pour les patients gravement malades est discuté
In the first part of this dissertation we consider several problems of finite-dimensional parameter estimation for Markov sequences in the asymptotics of large samples. The asymptotic behavior of the Bayesian estimators and the estimators of the method of moments are described. It is shown that under regularity conditions these estimators are consistent and asymptotically normal. We show that the Bayesian estimator is asymptotically efficient. The one-step and two-step maximum likelihood estimator-processes are studied. These estimators allow us to construct the asymptotically efficient estimators based on some preliminary estimators, say, the estimators of the method of moments or Bayes estimator and the one-step maximum likelihood estimator structure. We propose particular non-linear autoregressive processes as examples and we illustrate the properties of these estimators with the help of numerical simulations. In the second part we give theapplications of Markov processes in health economics. We compare homogeneous and non-homogeneous Markov models for cost-effectiveness analysis of routine use of transparent dressings containing a chlorhexidine gluconate gel pad versus standard transparent dressings. The antimicrobial dressing protects central vascular accesses reducing the risk of catheter-related bloodstream infections. The impact of the modeling approach on the decision of adopting antimicrobialdressings for critically-ill patients is discussed
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Leroy, Fanny. "Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : Problème de l'estimation d'une distribution en présence de données tronquées à droite". Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01011262.

Texto completo
Resumen
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Ahmad, Ali. "Contribution à l'économétrie des séries temporelles à valeurs entières". Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Texto completo
Resumen
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ren, Chengfang. "Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112167/document.

Texto completo
Resumen
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels
In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles". Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Texto completo
Resumen
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Graffigne, Christine. "Application des statistiques au traitement d'images". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375980109.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Babykina, Evgénia. "Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle et application aux défaillances des réseaux d'eau". Thesis, Bordeaux 2, 2010. http://www.theses.fr/2010BOR21750/document.

Texto completo
Resumen
Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse de défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés à des instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplet d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Le modèle est positionné parmi d'autres approches visant à l'analyse d'événements récurrents utilisées en biostatistique et en fiabilité. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). Une covariable dépendante du temps est intégrée au modèle. Il est supposé qu'elle est extérieure au processus de défaillance et constante par morceaux. Des méthodes heuristiques sont proposées afin de tenir compte de cette covariable lorsqu'elle n'est pas observée. Des méthodes de simulation de données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateur (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre de systèmes n et asymptotique en durée d'observation T. Le comportement asymptotique de l'estimateur MV constaté empiriquement est conforme aux résultats théoriques classiques. Il s'agit de l'asymptotique en n. Le comportement T-asymptotique constaté empiriquement n'est pas classique. L'analyse montre également que les deux directions asymptotiques n et T peuvent être combinées en une unique direction : le nombre d'événements observés. Cela concerne les paramètres classiques du modèle (les coefficients associés aux covariables fixes et le paramètre caractérisant le vieillissement des systèmes). Ce n'est en revanche pas le cas pour le coefficient associé à la covariable temporelle et pour le paramètre caractérisant l'impact négatif des défaillances précédentes sur le comportement futur du système. La méthodologie développée est appliquée à l'analyse des défaillances des réseaux d'eau. L'influence des variations climatiques sur l'intensité de défaillance est prise en compte par une covariable dépendante du temps. Les résultats montrent globalement une amélioration des prédictions du comportement futur du processus lorsque la covariable temporelle est incluse dans le modèle
In the context of stochastic modeling of recurrent events, a particular model is explored. This model is based on the counting process theory and is built to analyze failures in water distribution networks. In this domain the data on a large number of systems observed during a certain time period are available. Since the systems are installed at different dates, their age is used as a time scale in modeling. The model accounts for incomplete event history, aging of systems, negative impact of previous failures on the state of systems and for covariates.The model is situated among other approaches to analyze the recurrent events, used in biostatistics and in reliability. The model parameters are estimated by the Maximum Likelihood method (ML). A method to integrate a time-dependent covariate into the model is developed. The time-dependent covariate is assumed to be external to the failure process and to be piecewise constant. Heuristic methods are proposed to account for influence of this covariate when it is not observed. Methods for data simulation and for estimations in presence of the time-dependent covariate are proposed. A Monte Carlo study is carried out to empirically assess the ML estimator's properties (normality, bias, variance). The study is focused on the doubly-asymptotic nature of data: asymptotic in terms of the number of systems n and in terms of the duration of observation T. The asymptotic behavior of the ML estimator, assessed empirically agrees with the classical theoretical results for n-asymptotic behavior. The T-asymptotics appears to be less typical. It is also revealed that the two asymptotic directions, n and T can be combined into one unique direction: the number of observed events. This concerns the classical model parameters (the coefficients associated to fixed covariates, the parameter characterizing aging of systems). The presence of one unique asymptotic direction is not obvious for the time-dependent covariate coefficient and for a parameter characterizing the negative impact of previous events on the future behavior of a system.The developed methodology is applied to the analysis of failures of water networks. The influence of climatic variations on failure intensity is assessed by a time-dependent covariate. The results show a global improvement in predictions of future behavior of the process when the time-dependent covariate is included into the model
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Josso, Nicolas. "Caractérisation des milieux sous-marins en utilisant des sources mobiles d'opportunité". Phd thesis, Grenoble INPG, 2010. https://theses.hal.science/tel-00546875.

Texto completo
Resumen
Les contraintes de rapidité et de discrétion imposées à un système moderne de caractérisation du milieu océanique ont conduit au développement de la tomographie passive, définie comme un moyen discret et rapide d'estimation des paramètres d'un canal acoustique. Ce concept fait appel aux signaux existants dans le milieu et transmis par des sources d'opportunité. Les signaux d'opportunité sont inconnus à la réception mais contiennent des informations relatives aux paramètres physiques du canal défini entre la source et le récepteur. Le travail de recherche présenté dans ce mémoire est d´edié à la caractérisation des milieux sous-marins en utilisant des signaux bioacoustiques d'opportunité (sifflements à modulation fréquentielle). La méconnaissance du signal transmis, de la position et de la vitesse de la source acoustique d'opportunité rendent la tomographie passive difficile à mettre en oeuvre. La propagation dans l'environnement océanique et le mouvement inconnu de la source transforment conjointement les signaux d'opportunité enregistrés. Dans un premier temps, nous présentons de nouvelles méthodes d'estimation simultanée des paramètres environnementaux et des déformations engendrées par le mouvement dans le plan d'ambiguïté large-bande, dans un contexte d'émissions actives (le signal transmis est supposé connu). Ces méthodes, permettant de compenser les effets du mouvement dans les scénarios d'´emissions actives, sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer. Puis nous nous intéressons à la tomographie océanique acoustique passive sur un unique hydrophone. Dans ce contexte, le signal transmis, la position et la vitesse de la source sont entièrement inconnus. A partir des estimateurs développés pour les scénarios d'émissions actives, nous présentons une nouvelle méthodologie permettant d'estimer les paramètres environnementaux en utilisant des vocalises de mammifères marins enregistrées sur un unique hydrophone. Les informations extraites sur les signaux naturels d'opportunité sont ensuite utilisées pour estimer la position puis le vecteur vitesse de la source d'opportunité. Ces méthodes sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer
Quickness, secrecy and loudness constraints imposed by modern oceanic characterization led to passive tomography which is defined as a quick, secretive and quiet mean of estimating underwater propagation canals. This concept uses signals naturally existing in the medium and transmitted by opportunity sources. Opportunity signals are unknown at the receiver but they also carry information about canal physical properties. This research work is dedicated to underwater environments characterization using opportunity bioacoustic signals (dolphin whistles). Opportunity signals are simultaneously transformed by underwater propagation and the unknown motion effects. Firstly, we propose new methods for estimating simultaneously environmental parameters and transformations created by motion effects. These parameters are estimated in the broadband ambiguity plane for active tomography (the emitted signal is known) with unknown motion in the system. This work, allowing to compensate for motion effect in active scenarios, is validated on different simulated and real data. Then, we apply our signal processing methods to passive underwater tomography, using a single hydrophone. In this context, both the transmitted signal, source position and source speed are completely unknown. From the theory we developed for active tomography, we derive new methods allowing the estimation of impulse response using underwater mammals vocalization recorded on a single hydrophone. Information extracted on opportunity signals is then used for source position and speed estimation. These methods are applied and validated on different simulated and real data from at sea experiments
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Fourtinon, Luc. "3D conformal antennas for radar applications". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0060/document.

Texto completo
Resumen
Embarqué sous le radôme du missile, les autodirecteurs existants utilisent une rotation mécanique du plan d’antenne pour balayer le faisceau en direction d’une cible. Les recherches actuelles examinent le remplacement des composantes mécaniques de rotation de l’antenne par un nouveau réseau d’antennes 3D conformes à balayage électronique. Les antennes 3D conformes pourraient offrir des avantages significatifs, tels qu’un balayage plus rapide et une meilleure couverture angulaire mais qui pourraient aussi offrir de nouveaux challenges résultant d’un diagramme de rayonnement plus complexes en 3D qu’en 2D. Le nouvel autodirecteur s’affranchit du système mécanique de rotation ce qui libère de l’espace pour le design d’une nouvelle antenne 3D conforme. Pour tirer le meilleur parti de cet espace, différentes formes de réseaux sont étudiées, ainsi l’impact de la position, de l’orientation et de la conformation des éléments est établi sur les performances de l’antenne, en termes de directivité, ellipticité et de polarisation. Pour faciliter cette étude de réseaux 3D conformes, un programme Matlab a été développé, il permet de générer rapidement le diagramme de rayonnement en polarisation d’un réseau donné dans toutes les directions. L’une des tâches de l’autodirecteur consiste à estimer la position d’une cible donnée afin de corriger la trajectoire du missile. Ainsi, l’impact de la forme du réseau sur l’erreur entre la direction d’arrivée mesurée de l’écho de la cible et sa vraie valeur est analysé. La borne inférieure de Cramer-Rao est utilisée pour calculer l’erreur minimum théorique. Ce modèle suppose que chaque élément est alimenté séparément et permet ainsi d’évaluer le potentiel des réseaux 3D conformes actifs.Finalement, l’estimateur du monopulse en phase est étudié pour des réseaux 3D conformes dont les quadrants n’auraient pas les mêmes caractéristiques. Un nouvel estimateur, plus adapté à des quadrants non identiques, est aussi proposé
Embedded below the radome of a missile, existing RF-seekers use a mechanical rotating antenna to steer the radiating beam in the direction of a target. Latest research is looking at replacing the mechanical antenna components of the RF-seeker with a novel 3D conformal antenna array that can steer the beam electronically. 3D antennas may offer significant advantages, such as faster beam steering and better coverage but, at the same time, introduce new challenges resulting from a much more complex radiation pattern than that of 2D antennas. Thanks to the mechanical system removal, the new RF-seeker has a wider available space for the design of a new 3D conformal antenna. To take best benefits of this space, different array shapes are studied, hence the impact of the position, orientation and conformation of the elements is assessed on the antenna performance in terms of directivity, ellipticity and polarisation. To facilitate this study of 3D conformal arrays, a Matlab program has been developed to compute the polarisation pattern of a given array in all directions. One of the task of the RF-seeker consists in estimating the position of a given target to correct the missile trajectory accordingly. Thus, the impact of the array shape on the error between the measured direction of arrival of the target echo and its true value is addressed. The Cramer-Rao lower bound is used to evaluate the theoretical minimum error. The model assumes that each element receives independently and allows therefore to analyse the potential of active 3D conformal arrays. Finally, the phase monopulse estimator is studied for 3Dconformal arrays whose quadrants do not have the same characteristics. A new estimator more adapted to non-identical quadrants is also proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Keziou, Amor. "Utilisation des Divergences entre Mesures en Statistique Inférentielle". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004069.

Texto completo
Resumen
Dans cette thèse, nous proposons de nouvelles méthodes d'estimation et de test par optimisation des Divergences entre mesures pour des modèles paramétriques discrets ou continus, pour des modèles à rapport de densités semi-paramétriques et pour des modèles non paramétriques restreints par des contraintes linéaires. Les méthodes proposées sont basées sur une nouvelle représentation des Divergences entre mesures. Nous montrons que les méthodes du maximum de vraisemblance paramétrique et du maximum de vraisemblance empirique sont des cas particuliers correspondant au choix de la Divergence de Kullback-Leibler modifiée, et que le choix d'autres types de Divergences mène à des estimateurs ayant des propriétés similaires voire meilleurs dans certains cas. De nombreuses perspectives concernant le problème du choix de la Divergence sont notées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Renaux, Alexandre. "Contribution à l'analyse des performances d'estimation en traitement statistique du signal". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00129527.

Texto completo
Resumen
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).

La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.

Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.

Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Boubacar, Mainassara Yacouba. "Estimation, validation et identification des modèles ARMA faibles multivariés". Phd thesis, Université Charles de Gaulle - Lille III, 2009. http://tel.archives-ouvertes.fr/tel-00452032.

Texto completo
Resumen
Dans cette thèse nous élargissons le champ d'application des modèles ARMA (AutoRegressive Moving-Average) vectoriels en considérant des termes d'erreur non corrélés mais qui peuvent contenir des dépendances non linéaires. Ces modèles sont appelés des ARMA faibles vectoriels et permettent de traiter des processus qui peuvent avoir des dynamiques non linéaires très générales. Par opposition, nous appelons ARMA forts les modèles utilisés habituellement dans la littérature dans lesquels le terme d'erreur est supposé être un bruit iid. Les modèles ARMA faibles étant en particulier denses dans l'ensemble des processus stationnaires réguliers, ils sont bien plus généraux que les modèles ARMA forts. Le problème qui nous préoccupera sera l'analyse statistique des modèles ARMA faibles vectoriels. Plus précisément, nous étudions les problèmes d'estimation et de validation. Dans un premier temps, nous étudions les propriétés asymptotiques de l'estimateur du quasi-maximum de vraisemblance et de l'estimateur des moindres carrés. La matrice de variance asymptotique de ces estimateurs est d'une forme "sandwich", et peut être très différente de la variance asymptotique obtenue dans le cas fort. Ensuite, nous accordons une attention particulière aux problèmes de validation. Dans un premier temps, en proposant des versions modifiées des tests de Wald, du multiplicateur de Lagrange et du rapport de vraisemblance pour tester des restrictions linéaires sur les paramètres de modèles ARMA faibles vectoriels. En second, nous nous intéressons aux tests fondés sur les résidus, qui ont pour objet de vérifier que les résidus des modèles estimés sont bien des estimations de bruits blancs. Plus particulièrement, nous nous intéressons aux tests portmanteau, aussi appelés tests d'autocorrélation. Nous montrons que la distribution asymptotique des autocorrelations résiduelles est normalement distribuée avec une matrice de covariance différente du cas fort (c'est-à-dire sous les hypothèses iid sur le bruit). Nous en déduisons le comportement asymptotique des statistiques portmanteau. Dans le cadre standard d'un ARMA fort, il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un chi-deux. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de chi-deux. Cette distribution peut être très différente de l'approximation chi-deux usuelle du cas fort. Nous proposons donc des tests portmanteau modifiés pour tester l'adéquation de modèles ARMA faibles vectoriels. Enfin, nous nous sommes intéressés aux choix des modèles ARMA faibles vectoriels fondé sur la minimisation d'un critère d'information, notamment celui introduit par Akaike (AIC). Avec ce critère, on tente de donner une approximation de la distance (souvent appelée information de Kullback-Leibler) entre la vraie loi des observations (inconnue) et la loi du modèle estimé. Nous verrons que le critère corrigé (AICc) dans le cadre des modèles ARMA faibles vectoriels peut, là aussi, être très différent du cas fort.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Riou-Durand, Lionel. "Theoretical contributions to Monte Carlo methods, and applications to Statistics". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG006/document.

Texto completo
Resumen
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves
The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Emily, Mathieu. "Modèles statistiques du développement de tumeurs cancéreuses". Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00106972.

Texto completo
Resumen
Les nombreux mécanismes biologiques à l'origine du cancer restent aujourd'hui encore mal compris. L'amélioration de leurs connaissances peut s'effectuer par le biais de modèles mathématiques. Dans ce travail de thèse, nous nous sommes focalisés sur la mise en place d'outils statistiques pour la détection précoce de tumeurs. Nous avons proposé deux modèles stochastiques portant sur le développement de tumeurs cancéreuses. Le premier modèle s'intéresse à la détection de l'instabilité génétique dans une population de cellules. Nous nous sommes attachés à détecter l'événement initiateur de cette instabilité génétique en modélisant la généalogie des cellules par un arbre coalescent. Dans le deuxième modèle, nous nous sommes intéressés aux liens entre l'adhésion cellulaire et la croissance d'une tumeur. Nous avons intégré l'hypothèse d'adhésion différentielle dans un modèle d'interaction de Gibbs afin de quantifier le dysfonctionnement de l'adhésion cellulaire dans un tissu cancéreux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Ailliot, Pierre. "Modèles autorégressifs à changements de régimes markoviens. Applications aux séries tempo-relles de vent". Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00007602.

Texto completo
Resumen
Dans cette thèse, plusieurs modèles originaux, utilisant les modèles autorégressifs à change-ments de régimes markoviens, sont proposés pour les séries temporelles de vent. L'étude théorique de ces modèles fait l'objet du premier chapitre. Nous abordons en particulier les problèmes du calcul numérique des estimateurs du maximum de vraisemblance, de l'étude de leurs comportements asymptotiques ainsi que celui de la validation de modèle. Dans le deuxième chapitre, nous proposons divers modèles autorégressifs à changements de régimes markoviens permettant de décrire l'évolution du vent en un point fixé, puis dans le troisième chapitre son évolution spatio-temporelle. Pour chacun des modèles proposés, nous vérifions l'interprétabilité météorologique des différents paramètres et leur capacité à simuler des nouvelles séquences artificielles réalistes. Ces résultats sont comparés avec ceux corre-spondant aux modèles usuellement utilisés dans la littérature.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Moreno, Betancur Margarita. "Regression modeling with missing outcomes : competing risks and longitudinal data". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T076/document.

Texto completo
Resumen
Les données manquantes sont fréquentes dans les études médicales. Dans les modèles de régression, les réponses manquantes limitent notre capacité à faire des inférences sur les effets des covariables décrivant la distribution de la totalité des réponses prévues sur laquelle porte l'intérêt médical. Outre la perte de précision, toute inférence statistique requière qu'une hypothèse sur le mécanisme de manquement soit vérifiée. Rubin (1976, Biometrika, 63:581-592) a appelé le mécanisme de manquement MAR (pour les sigles en anglais de « manquant au hasard ») si la probabilité qu'une réponse soit manquante ne dépend pas des réponses manquantes conditionnellement aux données observées, et MNAR (pour les sigles en anglais de « manquant non au hasard ») autrement. Cette distinction a des implications importantes pour la modélisation, mais en général il n'est pas possible de déterminer si le mécanisme de manquement est MAR ou MNAR à partir des données disponibles. Par conséquent, il est indispensable d'effectuer des analyses de sensibilité pour évaluer la robustesse des inférences aux hypothèses de manquement.Pour les données multivariées incomplètes, c'est-à-dire, lorsque l'intérêt porte sur un vecteur de réponses dont certaines composantes peuvent être manquantes, plusieurs méthodes de modélisation sous l'hypothèse MAR et, dans une moindre mesure, sous l'hypothèse MNAR ont été proposées. En revanche, le développement de méthodes pour effectuer des analyses de sensibilité est un domaine actif de recherche. Le premier objectif de cette thèse était de développer une méthode d'analyse de sensibilité pour les données longitudinales continues avec des sorties d'étude, c'est-à-dire, pour les réponses continues, ordonnées dans le temps, qui sont complètement observées pour chaque individu jusqu'à la fin de l'étude ou jusqu'à ce qu'il sorte définitivement de l'étude. Dans l'approche proposée, on évalue les inférences obtenues à partir d'une famille de modèles MNAR dits « de mélange de profils », indexés par un paramètre qui quantifie le départ par rapport à l'hypothèse MAR. La méthode a été motivée par un essai clinique étudiant un traitement pour le trouble du maintien du sommeil, durant lequel 22% des individus sont sortis de l'étude avant la fin.Le second objectif était de développer des méthodes pour la modélisation de risques concurrents avec des causes d'évènement manquantes en s'appuyant sur la théorie existante pour les données multivariées incomplètes. Les risques concurrents apparaissent comme une extension du modèle standard de l'analyse de survie où l'on distingue le type d'évènement ou la cause l'ayant entrainé. Les méthodes pour modéliser le risque cause-spécifique et la fonction d'incidence cumulée supposent en général que la cause d'évènement est connue pour tous les individus, ce qui n'est pas toujours le cas. Certains auteurs ont proposé des méthodes de régression gérant les causes manquantes sous l'hypothèse MAR, notamment pour la modélisation semi-paramétrique du risque. Mais d'autres modèles n'ont pas été considérés, de même que la modélisation sous MNAR et les analyses de sensibilité. Nous proposons des estimateurs pondérés et une approche par imputation multiple pour la modélisation semi-paramétrique de l'incidence cumulée sous l'hypothèse MAR. En outre, nous étudions une approche par maximum de vraisemblance pour la modélisation paramétrique du risque et de l'incidence sous MAR. Enfin, nous considérons des modèles de mélange de profils dans le contexte des analyses de sensibilité. Un essai clinique étudiant un traitement pour le cancer du sein de stade II avec 23% des causes de décès manquantes sert à illustrer les méthodes proposées
Missing data are a common occurrence in medical studies. In regression modeling, missing outcomes limit our capability to draw inferences about the covariate effects of medical interest, which are those describing the distribution of the entire set of planned outcomes. In addition to losing precision, the validity of any method used to draw inferences from the observed data will require that some assumption about the mechanism leading to missing outcomes holds. Rubin (1976, Biometrika, 63:581-592) called the missingness mechanism MAR (for “missing at random”) if the probability of an outcome being missing does not depend on missing outcomes when conditioning on the observed data, and MNAR (for “missing not at random”) otherwise. This distinction has important implications regarding the modeling requirements to draw valid inferences from the available data, but generally it is not possible to assess from these data whether the missingness mechanism is MAR or MNAR. Hence, sensitivity analyses should be routinely performed to assess the robustness of inferences to assumptions about the missingness mechanism. In the field of incomplete multivariate data, in which the outcomes are gathered in a vector for which some components may be missing, MAR methods are widely available and increasingly used, and several MNAR modeling strategies have also been proposed. On the other hand, although some sensitivity analysis methodology has been developed, this is still an active area of research. The first aim of this dissertation was to develop a sensitivity analysis approach for continuous longitudinal data with drop-outs, that is, continuous outcomes that are ordered in time and completely observed for each individual up to a certain time-point, at which the individual drops-out so that all the subsequent outcomes are missing. The proposed approach consists in assessing the inferences obtained across a family of MNAR pattern-mixture models indexed by a so-called sensitivity parameter that quantifies the departure from MAR. The approach was prompted by a randomized clinical trial investigating the benefits of a treatment for sleep-maintenance insomnia, from which 22% of the individuals had dropped-out before the study end. The second aim was to build on the existing theory for incomplete multivariate data to develop methods for competing risks data with missing causes of failure. The competing risks model is an extension of the standard survival analysis model in which failures from different causes are distinguished. Strategies for modeling competing risks functionals, such as the cause-specific hazards (CSH) and the cumulative incidence function (CIF), generally assume that the cause of failure is known for all patients, but this is not always the case. Some methods for regression with missing causes under the MAR assumption have already been proposed, especially for semi-parametric modeling of the CSH. But other useful models have received little attention, and MNAR modeling and sensitivity analysis approaches have never been considered in this setting. We propose a general framework for semi-parametric regression modeling of the CIF under MAR using inverse probability weighting and multiple imputation ideas. Also under MAR, we propose a direct likelihood approach for parametric regression modeling of the CSH and the CIF. Furthermore, we consider MNAR pattern-mixture models in the context of sensitivity analyses. In the competing risks literature, a starting point for methodological developments for handling missing causes was a stage II breast cancer randomized clinical trial in which 23% of the deceased women had missing cause of death. We use these data to illustrate the practical value of the proposed approaches
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Josso, Nicolas. "Caractérisation des milieux sous marins en utilisant des sources mobiles d'opportunité". Phd thesis, 2010. http://tel.archives-ouvertes.fr/tel-00546875.

Texto completo
Resumen
Les contraintes de rapidité et de discrétion imposées à un système moderne de caractérisation du milieu océanique ont conduit au développement de la tomographie passive, définie comme un moyen discret et rapide d'estimation des paramètres d'un canal acoustique. Ce concept fait appel aux signaux existants dans le milieu et transmis par des sources d'opportunité. Les signaux d'opportunité sont inconnus à la réception mais contiennent des informations relatives aux paramètres physiques du canal défini entre la source et le récepteur. Le travail de recherche présenté dans ce mémoire est d´edié à la caractérisation des milieux sous-marins en utilisant des signaux bioacoustiques d'opportunité (sifflements à modulation fréquentielle). La méconnaissance du signal transmis, de la position et de la vitesse de la source acoustique d'opportunité rendent la tomographie passive difficile à mettre en oeuvre. La propagation dans l'environnement océanique et le mouvement inconnu de la source transforment conjointement les signaux d'opportunité enregistrés. Dans un premier temps, nous présentons de nouvelles méthodes d'estimation simultanée des paramètres environnementaux et des déformations engendrées par le mouvement dans le plan d'ambiguïté large-bande, dans un contexte d'émissions actives (le signal transmis est supposé connu). Ces méthodes, permettant de compenser les effets du mouvement dans les scénarios d'´emissions actives, sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer. Puis nous nous intéressons à la tomographie océanique acoustique passive sur un unique hydrophone. Dans ce contexte, le signal transmis, la position et la vitesse de la source sont entièrement inconnus. A partir des estimateurs développés pour les scénarios d'émissions actives, nous présentons une nouvelle méthodologie permettant d'estimer les paramètres environnementaux en utilisant des vocalises de mammifères marins enregistrées sur un unique hydrophone. Les informations extraites sur les signaux naturels d'opportunité sont ensuite utilisées pour estimer la position puis le vecteur vitesse de la source d'opportunité. Ces méthodes sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Nayihouba, Kolobadia Ada. "Essays in dynamic panel data models and labor supply". Thèse, 2019. http://hdl.handle.net/1866/23499.

Texto completo
Resumen
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées.
This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Kadje, Kenmogne Romain. "Estimation de paramètres en exploitant les aspects calculatoires et numériques". Thèse, 2017. http://hdl.handle.net/1866/20584.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía