Дисертації з теми "Rééchantillonage"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Rééchantillonage.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-31 дисертацій для дослідження на тему "Rééchantillonage".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Arlot, Sylvain. "Rééchantillonnage et Sélection de modèles." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00198803.

Повний текст джерела
Анотація:
Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique et de la théorie statistique de l'apprentissage. Son objet est la compréhension fine de certaines méthodes de rééchantillonnage ou de sélection de modèles, du point de vue non-asymptotique.

La majeure partie de ce travail de thèse consiste dans la calibration précise de méthodes de sélection de modèles optimales en pratique, pour le problème de la prédiction. Nous étudions la validation croisée V-fold (très couramment utilisée, mais mal comprise en théorie, notamment pour ce qui est de choisir V) et plusieurs méthodes de pénalisation. Nous proposons des méthodes de calibration précise de pénalités, aussi bien pour ce qui est de leur forme générale que des constantes multiplicatives. L'utilisation du rééchantillonnage permet de résoudre des problèmes difficiles, notamment celui de la régression avec un niveau de bruit variable. Nous validons théoriquement ces méthodes du point de vue non-asymptotique, en prouvant des inégalités oracle et des propriétés d'adaptation. Ces résultats reposent entre autres sur des inégalités de concentration.

Un second problème que nous abordons est celui des régions de confiance et des tests multiples, lorsque l'on dispose d'observations de grande dimension, présentant des corrélations générales et inconnues. L'utilisation de méthodes de rééchantillonnage permet de s'affranchir du fléau de la dimension, et d'"apprendre" ces corrélations. Nous proposons principalement deux méthodes, et prouvons pour chacune un contrôle non-asymptotique de leur niveau.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Lesquoy-de, Turckheim Élisabeth. "Tests non paramétriques et rééchantillonnage : le modèle de Cox périodique." Paris 11, 1987. http://www.theses.fr/1987PA112474.

Повний текст джерела
Анотація:
Cette thèse comporte trois parties. La première est l'étude de deux tests non­ paramétriques définis par rééchantillonnage. Leur puissance est estimée de façon fortement consistante, par simulation. L'un permet de comparer deux distributions dans un dispositif en blocs 2 x 2, l'autre de tester l'indépendance de deux temps de survie censurés. La deuxième partie adapte le modèle de régression de Cox à un processus ponctuel dont l'intensité de base est périodique et les régresseurs des processus prévisibles, ergodiques et
The first part proposes two nonparametric test defined by a simulation. One compares two distributions functions in a two-by-two black design, the other tests the independence of two censored survival times. The second part is an adaptation of Cox's regression model to a counting process having a periodic underlying intensity and predictable processes as regressors. These processes are ergodic and ϕ-mixing. The underlying intensity is estimated using either an empirical distribution-type estimate or a histogram-type estimate. These two estimates are asymptotically Gaussian and equivalent, as well as the associated regression parameters estimates. Finally, the model is applied to the analysis of a feeding pattern. The third part is a. Modelling of the kinetics of drought rhizogenesis of Sinapis alba
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Повний текст джерела
Анотація:
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Ahmed, Mohamed Hafez Soliman. "Statistiques réduisant le biais et modèles de rééchantillonnage complet et incomplet." Paris 6, 1986. http://www.theses.fr/1986PA066442.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Ferfache, Anouar Abdeldjaoued. "Les M-estimateurs semiparamétriques et leurs applications pour les problèmes de ruptures." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2643.

Повний текст джерела
Анотація:
Dans cette thèse, nous nous intéressons principalement aux modèles semiparamétriques qui ont reçu beaucoup d’intérêt par leur excellente utilité scientifique et leur complexité théorique intrigante. Dans la première partie, nous considérons le problème de l’estimation d’un paramètre dans un espace θ de Banach, en maximisant une fonction critère qui dépend d’un paramètre de nuisance inconnu h, éventuellement de dimension infinie. Nous montrons que le bootstrap m out of n, dans ce cadre général, est consistant sous des conditions similaires à celles requises pour la convergence faible des M-estimateurs non-réguliers. Dans ce cadre délicat, des techniques avancées seront nécessaires pour faire face aux estimateurs du paramètre de nuisance à l’intérieur des fonctions critères non régulières. Nous étudions ensuite le bootstrap échangeable pour les Z-estimateurs. L’ingrédient principal est l’utilisation originale d’une identité différentielle qui s’applique lorsque la fonction critère aléatoire est linéaire en termes de mesure empirique. Un grand nombre de schémas de rééchantillonnage bootstrap apparaissent comme des cas particuliers de notre étude. Des exemples d’applications de la littérature sont présentes pour illustrer la généralité et l’utilité de nos résultats. La deuxième partie est consacrée aux modèles statistiques semiparamétriques de ruptures multiples. L’objectif principal de cette partie est d’étudier les propriétés asymptotiques des M-estimateurs semiparamétriques avec des fonctions critères non lisses des paramètres d’un modèle de rupture multiples pour une classe générale de modèles dans lesquels la forme de la distribution peut changer de segment en segment et dans lesquels, éventuellement, il y a des paramètres communs à tous les segments. La consistance des M-estimateurs semi-paramétriques des points de rupture est établie et la vitesse de convergence est déterminée. La normalité asymptotique des M-estimateurs semiparamétriques des paramètres est établie sous des conditions générales. Nous étendons enfin notre étude au cadre des données censurées. Nous étudions les performances de nos méthodologies pour des petits échantillons à travers des études de simulations
In this dissertation we are concerned with semiparametric models. These models have success and impact in mathematical statistics due to their excellent scientific utility and intriguing theoretical complexity. In the first part of the thesis, we consider the problem of the estimation of a parameter θ, in Banach spaces, maximizing some criterion function which depends on an unknown nuisance parameter h, possibly infinite-dimensional. We show that the m out of n bootstrap, in a general setting, is weakly consistent under conditions similar to those required for weak convergence of the non smooth M-estimators. In this framework, delicate mathematical derivations will be required to cope with estimators of the nuisance parameters inside non-smooth criterion functions. We then investigate an exchangeable weighted bootstrap for function-valued estimators defined as a zero point of a function-valued random criterion function. The main ingredient is the use of a differential identity that applies when the random criterion function is linear in terms of the empirical measure. A large number of bootstrap resampling schemes emerge as special cases of our settings. Examples of applications from the literature are given to illustrate the generality and the usefulness of our results. The second part of the thesis is devoted to the statistical models with multiple change-points. The main purpose of this part is to investigate the asymptotic properties of semiparametric M-estimators with non-smooth criterion functions of the parameters of multiple change-points model for a general class of models in which the form of the distribution can change from segment to segment and in which, possibly, there are parameters that are common to all segments. Consistency of the semiparametric M-estimators of the change-points is established and the rate of convergence is determined. The asymptotic normality of the semiparametric M-estimators of the parameters of the within-segment distributions is established under quite general conditions. We finally extend our study to the censored data framework. We investigate the performance of our methodologies for small samples through simulation studies
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Goldfarb, Bernard. "Etude structurelle des séries temporelles : les moyens de l'analyse spectrale." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Повний текст джерела
Анотація:
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Zinger, Svitlana. "Interpolation et rééchantillonnage de données spatiales et application à la cartographie urbaine et à la détermination du fond cosmique primordial." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000944.

Повний текст джерела
Анотація:
Dans cette thèse nous étudions des méthodes d'interpolation de données irrégulièrement distribuées dans l'espace. Nous considérons le problème du rééchantillonnage de mesures altimétriques de données obtenues sur une grille irrégulière par laser aéroporté. Ce type de données est irrégulièrement distribué et un rééchantillonnage sur une grille régulière est nécessaire pour la génération de modèles numériques d'élévation (MNE). Quelques méthodes bien connues sont considérées: interpolation linéaire à partir de triangulations, interpolation au plus proche voisin à partir de triangulations et krigeage. Nous proposons une approche par minimisation d'énergie qui permet d'éviter les inconvénients inhérents à ces méthodes. Cette approche impose un modèle de surface correspondant aux zones urbaines. La fonction d'énergie est adaptée pour les données irrégulièrement distribuées. Les méthodes sont testées sur deux ensembles des points 3D irrégulièrement distribués acquis par un capteur laser sur Bruxelles et sur Amiens. Nous avons appliqué ces méthodes aussi pour la détermination du fond cosmique primordial.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Celisse, Alain. "Model selection via cross-validation in density estimation, regression, and change-points detection." Paris 11, 2008. http://www.theses.fr/2008PA112221.

Повний текст джерела
Анотація:
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement du leave-p-out. Ces algorithmes sont encore mal compris d'un point de vue théorique, notamment non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal p de l'ensemble test. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-p-out n'est habituellement pas applicable en pratique (grande complexité algorithmique). Pourtant, nous parvenons à obtenir des formules closes de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs. Nous envisageons le problème de la sélection de modèles par validation-croisée sous deux aspects : l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de p entièrement fondé sur les données, et la sélection de modèle. Ce second aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité du leave-p-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité en estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Nous proposons une procédure entièrement fondée sur le rééchantillonnage permettant de traiter le cas de données hétéroscédastiques avec une complexité algorithmique raisonnable
In this thesis, we aim at studying a family of resampling algorithms, referred to as cross-validation, and especially of one of them named leave-p-out. Extensively used in practice, these algorithms remain poorly understood, especially in the non-asymptotic framework. Our analysis of the leave-p-out algorithm is carried out both in density estimation and regression. Its main concern is to better understand cross-validation with respect to the cardinality p of the test set. From a general point of view, cross-validation is devoted to estimate the risk of an estimator. Usually due to a prohibitive computational complexity, the leave-p-out is intractable. However, we turned it into a feasible procedure thanks to closed-form formulas for the risk estimator of a wide range of widespread estimators. Besides, the question of model selection via cross-validation is considered through two approaches. The first one relies on the optimal estimation of the risk in terms of a bias-variance tradeoff, which results in a density estimation procedure based on a fully data-driven choice of p. This procedure is successfully applied to the multiple testing problem. The second approach is related to the interpretation of cross-validation in terms of penalized criterion. The quality of the leave-p-out procedure is theoretically assessed through oracle inequalities as well as an adaptivity result in the density estimation setup. The change-points detection problem is another concern of this work. It is explored through an extensive simulation study based on theoretical considerations. From this, we propose a fully resampling-based procedure, which enables to deal with the hard problem of heteroscedasticity, while keeping a reasonable computational complexity
Стилі APA, Harvard, Vancouver, ISO та ін.
9

François, Jérémie. "Fusion de connaissances expérimentales et expertes : une approche évolutive du diagnostic." Compiègne, 2000. http://www.theses.fr/2000COMP1308.

Повний текст джерела
Анотація:
On sait que le diagnostic de l'état d'un objet ou d'un système bénéficie de l'utilisation simultanée de plusieurs sources d'informations, expérimentales (données) ou expertes (a priori). Or cette fusion est difficile de par la diversité, l'imprécision et l'incer¬titude des informations, Le modèle des croyances transférables, une reformulation axio¬matisée de la théorie de l'évidence, permet dans ce contexte une représentation, une combinaison et une décision rigoureuses sur la base d'informations incertaines et impré¬cises. Comme il est souvent plus facile et rapide d'obtenir un historique de diagnostics qu'une expertise du domaine, le système proposé s'articule autour d'un clas¬sifieur simple, basé sur des exemples et une mesure de similarité entre cas. Le pouvoir de représentation par prototypes est malgré tout assez faible et dépend de la quantité et de la qualité des données disponibles. On introduit et étudie ici une méthode de ré-échantillonnage et d'agrégation pour réduire les conséquences du bruit de mesure et des ensembles d'apprentissage de petite taille. On montre que la classification est amé¬liorée et l'excès de confiance du système initial corrigé. Le recueil d'information supplémentaire pour la classification de l'objet à diagnostiquer est dirigé par les faiblesses ou les incomplétudes du système. Une pre¬mière application en reconnaissance optique de caractères illustre la pertinence de la démarche avec l'ajoût d'une règle simple, spécialisée sur un sous-ensemble de carac¬tères seulement. Le ré-échantillonnage améliore la représentation issue de la base non paramétrique du système et permet alors pleinement aux informations supplémentaires de mieux conclure sur les cas auparavant mal diagnostiqués. Le système est enfin validé avec le diagnostic de fonctionnement d'un réacteur de biodégradation de taille se mi-industrielle. L'étude des transitions d'états du système confirme de plus le grand intérêt de l'approche pour le diagnostic dynamique.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Notin, Alban. "Evaluation à moindre coût de la fiabilité des structures sollicitées en fatigue." Compiègne, 2010. http://www.theses.fr/2010COMP1877.

Повний текст джерела
Анотація:
Cette thèse s'insère dans le contexte général de l'estimation de la fiabilité des structures sollicitées en fatigue. Dans le cas d'applications industrielles, chaque évaluation est potentiellement coûteuse en temps de calcul et en espace de stockage. De ce fait, seul un nombre fini de calcul peut être réalisé. Cette évaluation à moindre coût de la fiabilité des structures sollicitées en fatigue suppose de travailler sur l'algorithme de fiabilité mais aussi d'accélérer les calculs mécaniques. Cette double problématique constitue la base de ce travail de thèse. Pour la partie fiabilité, la méthode MRCP (Méthode de Rééchantillonnage du Chaos Polynomial) a été développée. Son objectif est de proposer une troncature adaptative du métamodèle par chaos polynomial en estimant l'erreur par les intervalles de confiance sur l'indice de fiabilité. Les résultats montrent que l'approche est efficace pour des états-limites suffisamment réguliers. Une alternative à l'emploi de métamodèles consiste à accélérer les calculs mécaniques. C'est l'objectif de l'approche SLDL T (décomposition LDL T Stochastique) qui se base sur une modification de la décomposition de Cholesky en supposant que les variations de la matrice L sont négligeables dans le domaine de variation des variables aléatoires. L'aléa est alors reporté sur la matrice diagonale D, optimisée de façon à minimiser l'erreur sur la matrice de rigidité. Les résultats montrent un gain en temps de calcul de l'ordre de 180 sur un exemple industriel dont le comportement mécanique est linéaire élastique et le module d'Young modélisé par un champ stochastique
This thesis take place in the context of the estimation of the reliability of structures under fatigue loading. In the case of industrial applications, each model evaluation may be time and storage consuming. This way, only a few number of evaluations can be performed. This efficient estimation of the reliability of structures under fatigue loading implies to word on the reliability algorithm as well as the speeding up of mechanical computations. In this double issue lies the settlement of this thesis. Concerning the reliability part, the RPCM (Resampling Polynomial Chaos Method) method has been developed. The goal is to build the polynomial chaos basis in an adaptative way such that the troncature error is taken into account. This erros is estimad through confidence intervals on the reliability index. Numerical results show a very good behaviour of the proposed method in the case of smooth limit-state functions. However, metamodels are not the only way to speed up computations. Another strategy consists in accelerate the mechanical computations by approximating the closest calculi controlling the error. This is the idea of the SLDL T (Stochastic LDL T decomposition) approach which is based on a slight modification of the Cholesky decomposition assuming that the fluctuations of the lower matrix L are negligible in the domain of variation of the random inputs. The randonmess is put on the digonal matrix D, which is optimized such a way to minimize the error on the stiffness matrix. In the case of a linear elastic mechanical behaviour with the Young’s modulus modeled by a random field, results show a gain factor round to 180
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Bernard, Francis. "Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Повний текст джерела
Анотація:
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Lusinchi, Dominic. "La statistique appliquée : usage et signification dans les sciences sociales : essai de recherche méthodologique basé sur des études de cas aux États-Unis." Paris 8, 2008. http://octaviana.fr/document/137824084#?c=0&m=0&s=0&cv=0.

Повний текст джерела
Анотація:
Cette thèse est un essai de réflexion sur l'outillage statistique à la disposition des chercheurs dans les sciences sociales. Les derniers trente ans ont connu un développement considérable des techniques statistiques, tant numériques que graphiques, dû en grande partie à l'application de la statistique à un nombre croissant de disciplines, ainsi qu'à l'apparition, depuis à peine vingt ans, de l'ordinateur personnel. En s'appuyant sur des données réelles empruntées à diverses enquêtes ou études menées aux États-Unis, cette recherche s'efforce de montrer comment des problèmes importants soulevés dans ces travaux peuvent être résolus en faisant appel aux techniques classiques, et aussi, nouvelles de la statistique appliquée. La statistique appliquée n'est pas simplement une collection de techniques, c'est avant tout une façon de réfléchir aux données empiriques, c'est-à-dire, notamment, un moyen d'identifier les effets réels et de les séparer de ce qui est insignifiant. Cette thèse se propose de démontrer que le rôle de la statistique appliquée consiste à révéler le sens des données et à évaluer leurs limites. L'application de la statistique aux données de l'expérience constitue souvent une anticipation et un vecteur du raisonnement sociologique
This study examines the statistical tools available to social science practitioners. The last 30 years have witnessed a considerable development in statistical techniques, both numerical and graphical. This is in large part a result of the application of statistical methods to an ever increasing number of fields, and also of the emergence, barely 20 years ago, of the personal computer. Using real data from surveys and other studies conducted in the U. S. , this research will show how important problems that arise in empirical data can be tackled by relying on well-known as well as relatively recent statistical techniques. Applied statistics is not simply an array of procedures; it is above all a way of thinking about empirical data, specifically how to discriminate between real and chance effects. This research endeavors to show that the role of applied statistics is to reveal both the meaning of the data and their limitations. The application of statistical methods to empirical data can often act as a catalyst to stimulate the sociological imagination
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Tremblay, Nicolas. "Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0938/document.

Повний текст джерела
Анотація:
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique
This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Delsol, Laurent. "Régression sur variable fonctionnelle : estimation, tests de structure et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00449806.

Повний текст джерела
Анотація:
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

El, Hage Mhamad. "Etude de la qualité géomorphologique de modèles numériques de terrain issus de l'imagerie spatiale." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2012. http://tel.archives-ouvertes.fr/tel-00780682.

Повний текст джерела
Анотація:
La production de Modèles Numériques de Terrain (MNT) a subi d'importantes évolutions durant les deux dernières décennies en réponse à une demande croissante pour des besoins scientifiques et industriels. De nombreux satellites d'observation de la Terre, utilisant des capteurs tant optiques que radar, ont permis de produire des MNT couvrant la plupart de la surface terrestre. De plus, les algorithmes de traitement d'images et de nuages de points ont subi d'importants développements. Ces évolutions ont fourni des MNT à différentes échelles pour tout utilisateur. Les applications basées sur la géomorphologie ont profité de ces progrès. En effet, ces applications exploitent les formes du terrain dont le MNT constitue une donnée de base. Cette étude a pour objectif d'évaluer l'impact des paramètres de production de MNT par photogrammétrie et par InSAR sur la qualité de position et de forme de ces modèles. La qualité de position, évaluée par les producteurs de MNT, n'est pas suffisante pour évaluer la qualité des formes. Ainsi, nous avons décrit les méthodes d'évaluation de la qualité de position et de forme et la différence entre elles. Une méthode originale de validation interne, qui n'exige pas de données de référence, a été proposée. Ensuite, l'impact des paramètres de l'appariement stéréoscopique, du traitement interférométrique ainsi que du rééchantillonnage, sur l'altitude et les formes, a été évalué. Finalement, nous avons conclu sur des recommandations pour choisir correctement les paramètres de production, en particulier en photogrammétrie.Nous avons observé un impact négligeable de la plupart des paramètres sur l'altitude, à l'exception de ceux de l'InSAR. Par contre, un impact significatif existe sur les dérivées de l'altitude. L'impact des paramètres d'appariement présente une forte dépendance avec la morphologie du terrain et l'occupation du sol. Ainsi, le choix de ces paramètres doit être effectué en prenant en considération ces deux facteurs. L'effet des paramètres du traitement interférométrique se manifeste par des erreurs de déroulement de phase qui affectent principalement l'altitude et peu les dérivées. Les méthodes d'interpolation et la taille de maille présentent un impact faible sur l'altitude et important sur ses dérivées. En effet, leur valeur et leur qualité dépendent directement de la taille de maille. Le choix de cette taille doit s'effectuer selon les besoins de l'application visée. Enfin, nous avons conclu que ces paramètres sont interdépendants et peuvent avoir des effets similaires. Leur choix doit être effectué en prenant en considération à la fois l'application concernée, la morphologie du terrain et son occupation du sol afin de minimiser l'erreur des résultats finaux et des conclusions.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Maillard, Guillaume. "Hold-out and Aggregated hold-out Aggregated Hold-Out Aggregated hold-out for sparse linear regression with a robust loss function." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM005.

Повний текст джерела
Анотація:
En statistiques, il est fréquent d'avoir à choisir entre plusieurs estimateurs (sélection d'estimateurs) ou à les combiner. Cela permet notamment d'adapter la complexité d'un modèle statistique en fonction des données (compromis biais-variance). Pour les problèmes de minimisation de risque, une méthode simple et générale, la validation ou hold-out, consiste à consacrer une partie de l'échantillon à l'estimation du risque des estimateurs, dans le but de choisir celui de risque minimal. Cette procédure nécessite de choisir arbitrairement un sous-échantillon "de validation". Afin de réduire l'influence de ce choix, il est possible d'agréger plusieurs estimateurs hold-out en les moyennant (Agrégation d'hold-out). Dans cette thèse, le hold-out et l'agrégation d'hold-out sont étudiés dans différents cadres. Dans un premier temps, les garanties théoriques sur le hold-out sont étendues à des cas où le risque n'est pas borné: les méthodes à noyaux et la régression linéaire parcimonieuse. Dans un deuxième temps, une étude précise du risque de ces méthodes est menée dans un cadre particulier: l'estimation de densité L² par des séries de Fourier. Il est démontré que l'agrégation de hold-out peut faire mieux que le meilleur des estimateurs qu'elle agrège, ce qui est impossible pour une méthode qui, comme le hold-out ou la validation croisée, sélectionne un seul estimateur
In statistics, it is often necessary to choose between different estimators (estimator selection) or to combine them (agregation). For risk-minimization problems, a simple method, called hold-out or validation, is to leave out some of the data, using it to estimate the risk of the estimators, in order to select the estimator with minimal risk. This method requires the statistician to arbitrarily select a subset of the data to form the "validation sample". The influence of this choice can be reduced by averaging several hold-out estimators (Aggregated hold-out, Agghoo). In this thesis, the hold-out and Agghoo are studied in various settings. First, theoretical guarantees for the hold-out (and Agghoo) are extended to two settings where the risk is unbounded: kernel methods and sparse linear regression. Secondly, a comprehensive analysis of the risk of both methods is carried out in a particular case: least-squares density estimation using Fourier series. It is proved that aggregated hold-out can perform better than the best estimator in the given collection, something that is clearly impossible for a procedure, such as hold-out or cross-validation, which selects only one estimator
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Gaudnik, Cassandre. "Impacts des dépôts d'azote atmosphérique sur la végétation des prairies acides du domaine atlantique français : approche comparative et expérimentale." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14407/document.

Повний текст джерела
Анотація:
Afin d’appréhender l’impact des dépôts d’azote atmosphérique sur les écosystèmes,nous nous sommes intéressés à un écosystème d’intérêt patrimonial : les prairies acides duViolion caninae. Au sein de ces prairies, les objectifs étaient de (i) quantifier les variationsfloristiques temporelles et spatiales le long du domaine atlantique français et de déterminer siles variables de dépôts d’azote et du climat expliquaient ces patrons, (ii) comprendre lesprocessus mis en jeu lors de l’enrichissement en azote au niveau de la végétation et du sol, et(iii) examiner les moyens potentiels de conservation et de restauration.L’étude temporelle et spatiale des prairies acides a permis de mettre en évidence deschangements de composition à l’échelle locale du type de communautés mais également àl’échelle nationale du domaine atlantique français. A l’échelle locale et nationale, ceschangements ont pu être reliés à des changements climatiques d’augmentation de latempérature annuelle moyenne et de diminution de la disponibilité en eau du sol. Toutefois àl’échelle locale, les plus forts changements de végétation ont été perçus pour les sites soumiségalement aux plus forts dépôts chroniques d’azote depuis les 25 dernières années. Ceschangements de composition se sont produits au détriment des espèces de petites tailles, tellesque des dicotylédones, alors que les Poacées généralistes se sont maintenues en dominant lecouvert végétal. Ces changements sont visibles dès 10-15 kg N ha-1 an-1, déterminé comme lacharge critique d’azote pour les prairies acides.L’approche expérimentale a permis de souligner les processus mis en jeu dans ceshabitats acides lors d’un apport d’azote. Notamment, l’enrichissement en azote n’entraineraitpas de compétition pour la lumière au sein de la végétation. Ce type de milieu, principalementdéfini par son caractère oligotrophe et sa faible capacité à neutraliser l’acidité du sol,semblerait donc essentiellement affecté par des mécanismes de toxicité de l’ammonium voired’acidification du milieu à long terme.Enfin, les moyens de restauration étudiés ont montré la difficulté de conserver et derestaurer de tels habitats potentiellement affectés par les dépôts d’azote. En effet, l’utilisationde fauches répétées avec exportation de la biomasse a montré son inutilité dans un systèmequi n’est pas influencé par la compétition pour la lumière. De même, l’étude des banques degraines a montré que ce pool d’espèces ne pouvait pas représenter le seul moyen deconservation des espèces caractéristiques. Ces résultats révèlent l’importance de conserver lesprairies acides existantes, principalement dans des sites soumis à de faibles dépôts ambiants
To assess the impact of atmospheric nitrogen deposition on ecosystems, we werefocused on a patrimonial interest ecosystem: acid grasslands of Violion caninae. Within thesegrasslands, we aimed to (i) characterise temporal and spatial variation in plant speciescomposition along the French Atlantic domain and determine if nitrogen deposition andclimate variables could explain these patterns, (ii) understand processes underlined bynitrogen addition on vegetation and soil, and (iii) examine the potential conservation andrestoration ways.Temporal and spatial approach of acid grasslands brought to light changes in speciescomposition at local scale of community type but also at the national French Atlantic domainscale. At both local and national scale, these changes were linked to climate change withincrease of mean annual temperature and decrease of soil water availability. However at localscale, the most changes in species composition were experienced on sites with climate changeand also the highest chronic nitrogen deposition since the last 25 years. These changes inspecies composition occurred at the expense of short stature species like forbs whereasgrasses species were persistent and dominated vegetation. These changes are visible from 10-15 kg N ha-1 an-1, determined as the critical load for nitrogen in acid grasslands.The experiment allowed to highlight processes underlined in acid grasslands afternitrogen addition. In particular, nitrogen enrichment did not lead to light competition invegetation. These grasslands, mainly defined by poor-nutrient and low capacity to bufferacidity in soil, were essentially affected by ammonium toxicity or even acidification on thelong range.Finally, the study of conservation ways showed the difficulty to conserve and restorethe grasslands affected by nitrogen deposition. Indeed, more frequent cuttings with biomassremoval were useless in a system not influenced by light competition within vegetation. Thestudy of seed banks showed also that conservation ways could not be based just on seed banksto maintain characteristic species. These results highlight the importance to conserve theexisting acid grasslands, mostly in region with low ambient nitrogen deposition
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Blanc, Philippe. "Développement de méthodes pour la détection de changement." Phd thesis, École Nationale Supérieure des Mines de Paris, 1999. http://tel.archives-ouvertes.fr/tel-00477115.

Повний текст джерела
Анотація:
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Celisse, Alain. "Sélection de modèle par validation-croisée en estimation de la densité, régression et détection de ruptures." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00346320.

Повний текст джерела
Анотація:
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement parmi eux, du leave-p-out. Très utilisés en pratique, ces algorithmes sont encore mal compris d'un point de vue théorique, notamment sur un plan non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal $p$ de l'ensemble test dont elle dépend. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-$p$-out n'est habituellement pas applicable en pratique, à cause d'une trop grande complexité algorithmique. Pourtant, nous parvenons à obtenir des formules closes (parfaitement calculables) de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs très employés. Nous envisageons le problème de la sélection de modèle par validation-croisée sous deux aspects. L'un repose sur l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de $p$ entièrement fondé sur les données. Une application naturelle au problème des tests multiples est envisagée. L'autre aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité de la procédure leave-$p$-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité dans le cadre de l'estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Sur cette base, nous proposons une procédure entièrement tournée vers le rééchantillonnage, permettant de traiter le cas difficile de données hétéroscédastiques avec une complexité algorithmique raisonnable.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Bruffaerts, Christopher. "Contributions to robust methods in nonparametric frontier models." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209244.

Повний текст джерела
Анотація:
Les modèles de frontières sont actuellement très utilisés par beaucoup d’économistes, gestionnaires ou toute personne dite « decision-maker ». Dans ces modèles de frontières, le but du chercheur consiste à attribuer à des unités de production (des firmes, des hôpitaux ou des universités par exemple) une mesure de leur efficacité en terme de production. Ces unités (dénotées DMU-Decision-Making Units) utilisent-elles à bon escient leurs « inputs » et « outputs »? Font-elles usage de tout leur potentiel dans le processus de production?

L’ensemble de production est l’ensemble contenant toutes les combinaisons d’inputs et d’outputs qui sont physiquement réalisables dans une économie. De cet ensemble contenant p inputs et q outputs, la notion d’efficacité d ‘une unité de production peut être définie. Celle-ci se définie comme une distance séparant le DMU de la frontière de l’ensemble de production. A partir d’un échantillon de DMUs, le but est de reconstruire cette frontière de production afin de pouvoir y évaluer l’efficacité des DMUs. A cette fin, le chercheur utilise très souvent des méthodes dites « classiques » telles que le « Data Envelopment Analysis » (DEA).

De nos jours, le statisticien bénéficie de plus en plus de données, ce qui veut également dire qu’il n’a pas l’opportunité de faire attention aux données qui font partie de sa base de données. Il se peut en effet que certaines valeurs aberrantes s’immiscent dans les jeux de données sans que nous y fassions particulièrement attention. En particulier, les modèles de frontières sont extrêmement sensibles aux valeurs aberrantes et peuvent fortement influencer l’inférence qui s’en suit. Pour éviter que certaines données n’entravent une analyse correcte, des méthodes robustes sont utilisées.

Allier le côté robuste au problème d’évaluation d’efficacité est l’objectif général de cette thèse. Le premier chapitre plante le décor en présentant la littérature existante dans ce domaine. Les quatre chapitres suivants sont organisés sous forme d’articles scientifiques.

Le chapitre 2 étudie les propriétés de robustesse d’un estimateur d’efficacité particulier. Cet estimateur mesure la distance entre le DMU analysé et la frontière de production le long d’un chemin hyperbolique passant par l’unité. Ce type de distance très spécifique s’avère très utile pour définir l’efficacité de type directionnel.

Le chapitre 3 est l’extension du premier article au cas de l’efficacité directionnelle. Ce type de distance généralise toutes les distances de type linéaires pour évaluer l’efficacité d’un DMU. En plus d’étudier les propriétés de robustesse de l’estimateur d’efficacité de type directionnel, une méthode de détection de valeurs aberrantes est présentée. Celle-ci s’avère très utile afin d’identifier les unités de production influençantes dans cet espace multidimensionnel (dimension p+q).

Le chapitre 4 présente les méthodes d’inférence pour les efficacités dans les modèles nonparamétriques de frontière. En particulier, les méthodes de rééchantillonnage comme le bootstrap ou le subsampling s’avère être très utiles. Dans un premier temps, cet article montre comment améliorer l’inférence sur les efficacités grâce au subsampling et prouve qu’il n’est pas suffisant d’utiliser un estimateur d’efficacité robuste dans les méthodes de rééchantillonnage pour avoir une inférence qui soit fiable. C’est pourquoi, dans un second temps, cet article propose une méthode robuste de rééchantillonnage qui est adaptée au problème d’évaluation d’efficacité.

Finalement, le dernier chapitre est une application empirique. Plus précisément, cette analyse s’intéresse à l ‘efficacité des universités américaines publiques et privées au niveau de leur recherche. Des méthodes classiques et robustes sont utilisées afin de montrer comment tous les outils étudiés précédemment peuvent s’appliquer en pratique. En particulier, cette étude permet d’étudier l’impact sur l’efficacité des institutions américaines de certaines variables telles que l’enseignement, l’internationalisation ou la collaboration avec le monde de l’industrie.


Doctorat en sciences, Orientation statistique
info:eu-repo/semantics/nonPublished

Стилі APA, Harvard, Vancouver, ISO та ін.
21

Rohmer, Tom. "Deux tests de détection de rupture dans la copule d'observations multivariées." Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5933.

Повний текст джерела
Анотація:
Résumé : Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans ce travail de thèse, nous proposons deux tests non paramétriques de détection de ruptures dans la distribution d’observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d’alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multiplicateurs est proposée pour la statistique de test ; sa validité asymptotique sous l’hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d’un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l’une utilise un rééchantillonnage de la statistique, l’autre est fondée sur une estimation de la loi limite de la statistique de test. // Abstract : It is very well-known that the marginal distributions of a random vector do not characterize the distribution of the random vector. When the marginal distributions are continuous, the work of Sklar ensures the existence and uniqueness of a function called copula which can be regarded as capturing the dependence between the components of the random vector. The cumulative distribution function of the vector can then be rewritten using only the copula and the marginal cumulative distribution functions. In this work, we propose two non-parametric tests for change-point detection, particularly sensitive to changes in the copula of multivariate time series. They improve on recent propositions and are more powerful for relevant alternatives involving a change in the copula. The finite-sample behavior of these tests is investigated through Monte Carlo experiments. The first test is based on a Cramér-von Mises statistic and on the sequential empirical copula process. A multiplier resampling scheme is suggested and its asymptotic validity under the null hypothesis is demonstrated under strong mixing conditions. The second test focuses on the detection of a change in Spearman’s rho. Monte Carlo simulations reveal that this test is more powerful than the first test for alternatives characterized by a change in Spearman’s rho. Two approaches to compute approximate p-values for the test are studied empirically and theoretically. The first one is based on resampling, the second one consists of estimating the asymptotic null distribution of the test statistic.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Hage, Mhamad El. "Etude de la qualité géomorphologique de modèles numériques de terrain issus de l’imagerie spatiale." Thesis, Paris, CNAM, 2012. http://www.theses.fr/2012CNAM0846/document.

Повний текст джерела
Анотація:
La production de Modèles Numériques de Terrain (MNT) a subi d’importantes évolutions durant les deux dernières décennies en réponse à une demande croissante pour des besoins scientifiques et industriels. De nombreux satellites d’observation de la Terre, utilisant des capteurs tant optiques que radar, ont permis de produire des MNT couvrant la plupart de la surface terrestre. De plus, les algorithmes de traitement d’images et de nuages de points ont subi d’importants développements. Ces évolutions ont fourni des MNT à différentes échelles pour tout utilisateur. Les applications basées sur la géomorphologie ont profité de ces progrès. En effet, ces applications exploitent les formes du terrain dont le MNT constitue une donnée de base. Cette étude a pour objectif d’évaluer l’impact des paramètres de production de MNT par photogrammétrie et par InSAR sur la qualité de position et de forme de ces modèles. La qualité de position, évaluée par les producteurs de MNT, n’est pas suffisante pour évaluer la qualité des formes. Ainsi, nous avons décrit les méthodes d’évaluation de la qualité de position et de forme et la différence entre elles. Une méthode originale de validation interne, qui n’exige pas de données de référence, a été proposée. Ensuite, l’impact des paramètres de l’appariement stéréoscopique, du traitement interférométrique ainsi que du rééchantillonnage, sur l’altitude et les formes, a été évalué. Finalement, nous avons conclu sur des recommandations pour choisir correctement les paramètres de production, en particulier en photogrammétrie.Nous avons observé un impact négligeable de la plupart des paramètres sur l’altitude, à l’exception de ceux de l’InSAR. Par contre, un impact significatif existe sur les dérivées de l’altitude. L’impact des paramètres d’appariement présente une forte dépendance avec la morphologie du terrain et l’occupation du sol. Ainsi, le choix de ces paramètres doit être effectué en prenant en considération ces deux facteurs. L’effet des paramètres du traitement interférométrique se manifeste par des erreurs de déroulement de phase qui affectent principalement l’altitude et peu les dérivées. Les méthodes d’interpolation et la taille de maille présentent un impact faible sur l’altitude et important sur ses dérivées. En effet, leur valeur et leur qualité dépendent directement de la taille de maille. Le choix de cette taille doit s’effectuer selon les besoins de l’application visée. Enfin, nous avons conclu que ces paramètres sont interdépendants et peuvent avoir des effets similaires. Leur choix doit être effectué en prenant en considération à la fois l’application concernée, la morphologie du terrain et son occupation du sol afin de minimiser l’erreur des résultats finaux et des conclusions
The production of Digital Elevation Models (DEMs) has undergone significant evolution duringthe last two decades resulting from a growing demand for scientific as well as industrial purposes.Many Earth observation satellites, using optical and radar sensors, have enabled the production ofDEMs covering most of the Earth’s surface. The algorithms of image and point cloud processing havealso undergone significant evolution. This progress has provided DEMs on different scales, which canfulfill the requirements of many users. The applications based on geomorphology have benefitted fromthis evolution. Indeed, these applications concentrate specifically on landforms for which the DEMconstitutes a basic data.The aim of this study is to assess the impact of the parameters of DEM production byphotogrammetry and InSAR on position and shape quality. The position quality, assessed by DEMproducers, is not sufficient for the evaluation of shape quality. Thus, the evaluation methods ofposition and shape quality and the difference between them are described. A novel method of internalvalidation, which does not require reference data, is proposed. Then, the impact of image matchingand interferometric processing parameters as well as resampling, on elevation and shapes, is assessed.Finally, we conclude on recommendations on how to choose the production parameters correctly,particularly for photogrammetry.We observe little impact from most of the parameters on the elevation, except InSAR parameters.On the other hand, there is a significant impact on the elevation derivatives. The impact of matchingparameters presents a strong dependence on the terrain morphology and the landcover. Therefore,these parameters have to be selected by taking into account these two factors. The effect ofinterferometric processing manifests by phase unwrapping errors that mainly affect the elevation andless the derivatives. The interpolation methods and the mesh size present a small impact on theelevation and a significant impact on the derivatives. Indeed, the value of the derivatives and theirquality depend directly on the mesh size. The selection of this size has to be made according to theforeseen application. Finally, we conclude that these parameters are interdependent and can havesimilar effects. They must be selected according to the foreseen application, the terrain morphologyand the landcover in order to minimize the error in the final results and the conclusions
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Lamberti, Roland. "Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007/document.

Повний текст джерела
Анотація:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Donat-Bouillud, Pierre. "Models, Analysis and Execution of Audio Graphs in Interactive Multimedia Systems." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS604.

Повний текст джерела
Анотація:
Les Systèmes Interactifs Multimédia (SIM) sont utilisés en concert pour des spectacles interactifs, qui mêlent en temps-réel instruments acoustiques, instruments électroniques, des données issues de divers capteurs (gestes, interface midi, etc) et le contrôle de différents média (vidéo, lumière, etc). Cette thèse présente un modèle formel de graphe audio, via un système de types et une sémantique dénotationnelle, avec des flux de données bufferisés datés multipériodiques qui permettent de représenter avec plus ou moins de précisions l'entrelacement du contrôle (par exemple un oscillateur basse fréquence, des vitesses issues d’un accéléromètre) et des traitements audio dans un SIM. Une extension audio d’Antescofo, un SIM qui fait office de suiveur de partition et qui comporte un langage synchrone temporisé dédié, a motivé le développement de ce modèle. Cette extension permet de connecter des effets Faust et des effets natifs, à la volée, de façon sure. L’approche a été validée sur une pièce de musique mixte et un exemple d'interactions audio et vidéo. Enfin, cette thèse propose des optimisations hors-ligne à partir du rééchantillonnage automatique de parties d'un graphe audio à exécuter. Un modèle de qualité et de temps d'exécution dans le graphe a été défini. Son étude expérimentale a été réalisée grâce à un SIM prototype à partir de la génération automatique de graphes audio, ce qui a permis aussi de caractériser des stratégies de rééchantillonnage proposées pour le cas en ligne en temps-réel
Interactive Multimedia Systems (IMSs) are used in concert for interactive performances, which combine in real time acoustic instruments, electronic instruments, data from various sensors (gestures, midi interface, etc.) and the control of different media (video, light, etc.). This thesis presents a formal model of audio graphs, via a type system and a denotational semantics, with multirate timestamped bufferized data streams that make it possible to represent with more or less precision the interleaving of the control (for example a low frequency oscillator, velocities from an accelerometer) and audio processing in an MIS. An audio extension of Antescofo, an IMS that acts as a score follower and includes a dedicated synchronous timed language, has motivated the development of this model. This extension makes it possible to connect Faust effects and native effects on the fly safely. The approach has been validated on a mixed music piece and an example of audio and video interactions. At last, this thesis proposes offline optimizations based on the automatic resampling of parts of an audio graph to be executed. A quality and execution time model in the graph has been defined. Its experimental study was carried out using a prototype IMS based on the automatic generation of audio graphs, which has also made it possible to characterize resampling strategies proposed for the online case in real time
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Li, Weiyu. "Quelques contributions à l'estimation des modèles définis par des équations estimantes conditionnelles." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S065/document.

Повний текст джерела
Анотація:
Dans cette thèse, nous étudions des modèles définis par des équations de moments conditionnels. Une grande partie de modèles statistiques (régressions, régressions quantiles, modèles de transformations, modèles à variables instrumentales, etc.) peuvent se définir sous cette forme. Nous nous intéressons au cas des modèles avec un paramètre à estimer de dimension finie, ainsi qu’au cas des modèles semi paramétriques nécessitant l’estimation d’un paramètre de dimension finie et d’un paramètre de dimension infinie. Dans la classe des modèles semi paramétriques étudiés, nous nous concentrons sur les modèles à direction révélatrice unique qui réalisent un compromis entre une modélisation paramétrique simple et précise, mais trop rigide et donc exposée à une erreur de modèle, et l’estimation non paramétrique, très flexible mais souffrant du fléau de la dimension. En particulier, nous étudions ces modèles semi paramétriques en présence de censure aléatoire. Le fil conducteur de notre étude est un contraste sous la forme d’une U-statistique, qui permet d’estimer les paramètres inconnus dans des modèles généraux
In this dissertation we study statistical models defined by condition estimating equations. Many statistical models could be stated under this form (mean regression, quantile regression, transformation models, instrumental variable models, etc.). We consider models with finite dimensional unknown parameter, as well as semiparametric models involving an additional infinite dimensional parameter. In the latter case, we focus on single-index models that realize an appealing compromise between parametric specifications, simple and leading to accurate estimates, but too restrictive and likely misspecified, and the nonparametric approaches, flexible but suffering from the curse of dimensionality. In particular, we study the single-index models in the presence of random censoring. The guiding line of our study is a U-statistics which allows to estimate the unknown parameters in a wide spectrum of models
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Calle, Didier. "Agrandissement d'images par synthèse de similarités et par induction sur un ensemble." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004813.

Повний текст джерела
Анотація:
Ce mémoire porte sur l'agrandissement des images numériques fixes en niveaux de gris dans un contexte général sans connaissance a priori. Il est constitué de trois parties. La première porte sur une description détaillée des méthodes d'agrandissement que l'on peut trouver dans la littérature. Nous commençons par présenter les méthodes d'interpolation classiques ayant pour objectif de préserver les fréquences de l'image à agrandir, puis nous détaillons des méthodes récentes de préservation structurelle produisant une meilleure netteté. La deuxième partie constitue la contribution majeure de ce travail en proposant deux nouvelles méthodes d'agrandissement. La première méthode est basée sur la synthèse de similarités détectées sur une représentation pyramidale de l'image. Elle reprend à la base le zoom fractal classique en apportant de nombreuses modifications et améliorations aussi bien dans la phase d'analyse que dans celle de synthèse. Nous vérifions expérimentalement l'hypothèse de préservation des similarités. La deuxième méthode d'agrandissement que nous proposons s'intéresse à l'ensemble admissible des images agrandies d'une image initiale. La condition d'admissibilité repose ici sur la notion de réduction : une image agrandie appartient à l'ensemble des solutions si sa réduction est identique à l'image initiale. Nous étudions différents algorithmes de projection sur cet ensemble. La troisième partie concerne des améliorations et des applications de nos deux méthodes. Tout d'abord, nous améliorons la qualité de l'image agrandie par synthèse de similarités en recherchant celles-ci sur une pyramide en quinconce. Ensuite, nous exploitons la méthode d'agrandissement par induction pour régulariser, vis-à-vis de la contrainte de réduction, les images agrandies par synthèse de similarités. Enfin, nous exploitons également cette méthode pour réaliser un codage hiérarchique de l'image permettant sa transmission progressive sur réseau.
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Bécu, Jean-Michel. "Contrôle des fausses découvertes lors de la sélection de variables en grande dimension." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2264/document.

Повний текст джерела
Анотація:
Dans le cadre de la régression, de nombreuses études s’intéressent au problème dit de la grande dimension, où le nombre de variables explicatives mesurées sur chaque échantillon est beaucoup plus grand que le nombre d’échantillons. Si la sélection de variables est une question classique, les méthodes usuelles ne s’appliquent pas dans le cadre de la grande dimension. Ainsi, dans ce manuscrit, nous présentons la transposition de tests statistiques classiques à la grande dimension. Ces tests sont construits sur des estimateurs des coefficients de régression produits par des approches de régressions linéaires pénalisées, applicables dans le cadre de la grande dimension. L’objectif principal des tests que nous proposons consiste à contrôler le taux de fausses découvertes. La première contribution de ce manuscrit répond à un problème de quantification de l’incertitude sur les coefficients de régression réalisée sur la base de la régression Ridge, qui pénalise les coefficients de régression par leur norme l2, dans le cadre de la grande dimension. Nous y proposons un test statistique basé sur le rééchantillonage. La seconde contribution porte sur une approche de sélection en deux étapes : une première étape de criblage des variables, basée sur la régression parcimonieuse Lasso précède l’étape de sélection proprement dite, où la pertinence des variables pré-sélectionnées est testée. Les tests sont construits sur l’estimateur de la régression Ridge adaptive, dont la pénalité est construite à partir des coefficients de régression du Lasso. Une dernière contribution consiste à transposer cette approche à la sélection de groupes de variables
In the regression framework, many studies are focused on the high-dimensional problem where the number of measured explanatory variables is very large compared to the sample size. If variable selection is a classical question, usual methods are not applicable in the high-dimensional case. So, in this manuscript, we develop the transposition of statistical tests to the high dimension. These tests operate on estimates of regression coefficients obtained by penalized linear regression, which is applicable in high-dimension. The main objective of these tests is the false discovery control. The first contribution of this manuscript provides a quantification of the uncertainty for regression coefficients estimated by ridge regression in high dimension. The Ridge regression penalizes the coefficients on their l2 norm. To do this, we devise a statistical test based on permutations. The second contribution is based on a two-step selection approach. A first step is dedicated to the screening of variables, based on parsimonious regression Lasso. The second step consists in cleaning the resulting set by testing the relevance of pre-selected variables. These tests are made on adaptive-ridge estimates, where the penalty is constructed on Lasso estimates learned during the screening step. A last contribution consists to the transposition of this approach to group-variables selection
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Magalhães, Nelo. "Validation croisée et pénalisation pour l'estimation de densité." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112100/document.

Повний текст джерела
Анотація:
Cette thèse s'inscrit dans le cadre de l'estimation d'une densité, considéré du point de vue non-paramétrique et non-asymptotique. Elle traite du problème de la sélection d'une méthode d'estimation à noyau. Celui-ci est une généralisation, entre autre, du problème de la sélection de modèle et de la sélection d'une fenêtre. Nous étudions des procédures classiques, par pénalisation et par rééchantillonnage (en particulier la validation croisée V-fold), qui évaluent la qualité d'une méthode en estimant son risque. Nous proposons, grâce à des inégalités de concentration, une méthode pour calibrer la pénalité de façon optimale pour sélectionner un estimateur linéaire et prouvons des inégalités d'oracle et des propriétés d'adaptation pour ces procédures. De plus, une nouvelle procédure rééchantillonnée, reposant sur la comparaison entre estimateurs par des tests robustes, est proposée comme alternative aux procédures basées sur le principe d'estimation sans biais du risque. Un second objectif est la comparaison de toutes ces procédures du point de vue théorique et l'analyse du rôle du paramètre V pour les pénalités V-fold. Nous validons les résultats théoriques par des études de simulations
This thesis takes place in the density estimation setting from a nonparametric and nonasymptotic point of view. It concerns the statistical algorithm selection problem which generalizes, among others, the problem of model and bandwidth selection. We study classical procedures, such as penalization or resampling procedures (in particular V-fold cross-validation), which evaluate an algorithm by estimating its risk. We provide, thanks to concentration inequalities, an optimal penalty for selecting a linear estimator and we prove oracle inequalities and adaptative properties for resampling procedures. Moreover, new resampling procedure, based on estimator comparison by the mean of robust tests, is introduced as an alternative to procedures relying on the unbiased risk estimation principle. A second goal of this work is to compare these procedures from a theoretical point of view and to understand the role of V for V-fold penalization. We validate these theoretical results on empirical studies
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Mashreghi, Zeinab. "Méthodes de rééchantillonnage en méthodologie d'enquête." Thèse, 2014. http://hdl.handle.net/1866/11933.

Повний текст джерела
Анотація:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
The aim of this thesis is to study the bootstrap variance estimators of a statistic based on imputed survey data. Applying a bootstrap method designed for complete survey data (full response) in the presence of imputed values and treating them as true observations may lead to underestimation of the variance. In this context, Shao and Sitter (1996) introduced a bootstrap procedure in which the variable under study and the response status are bootstrapped together and bootstrap non-respondents are imputed using the imputation method applied on the original sample. The resulting bootstrap variance estimator is valid when the sampling fraction is small. In Chapter 1, we begin by doing a survey of the existing bootstrap methods for (complete and imputed) survey data and, for the first time in the literature, present them in a unified framework. In Chapter 2, we introduce a new bootstrap procedure to estimate the variance under the non-response model approach when the uniform non-response mechanism is assumed. Using only information about the response rate, unlike Shao and Sitter (1996) which requires the individual response status, the bootstrap response status is generated for each selected bootstrap sample leading to a valid bootstrap variance estimator even for non-negligible sampling fractions. In Chapter 3, we investigate pseudo-population bootstrap approaches and we consider a more general class of non-response mechanisms. We develop two pseudo-population bootstrap procedures to estimate the variance of an imputed estimator with respect to the non-response model and the imputation model approaches. These procedures are also valid even for non-negligible sampling fractions.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Charlebois, Joanne. "Choix des poids de l'estimateur de vraisemblance pondérée par rééchantillonnage." Thèse, 2007. http://hdl.handle.net/1866/18131.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Ouhib, Lyes. "Modélisation des apports naturels de réservoirs." Thèse, 2005. http://hdl.handle.net/1866/17787.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії