Thèses sur le sujet « Estimation des valeurs initiales »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Estimation des valeurs initiales.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Estimation des valeurs initiales ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Wang, Zhibo. « Estimations non-asymptotiques et robustes basées sur des fonctions modulatrices pour les systèmes d'ordre fractionnaire ». Electronic Thesis or Diss., Bourges, INSA Centre Val de Loire, 2023. http://www.theses.fr/2023ISAB0003.

Texte intégral
Résumé :
Cette thèse développe la méthode des fonctions modulatrices pour des estimations non-asymptotiques et robustes pour des pseudo-états des systèmes nonlinéaires d'ordre fractionnaire, des systèmes linéaires d'ordre fractionnaire avec des accélérations en sortie, et des systèmes à retards d'ordre fractionnaire. Les estimateurs conçus sont fournis en termes de formules intégrales algébriques, ce qui assure une convergence non-asymptotique. Comme une caractéristique essentielle des algorithmes d'estimation conçus, les mesures de sorties bruitées ne sont impliquées que dans les termes intégraux, ce qui confère aux estimateurs une robustesse contre les bruits. Premièrement, pour les systèmes nonlinéaires d'ordre fractionnaire et partiellement inconnu, l'estimation de la dérivée fractionnaire du pseudo-état est abordée via la méthode des fonctions modulatrices. Grâce à la loi de l'indice additif des dérivées fractionnaires, l'estimation est décomposée en une estimation des dérivées fractionnaires de la sortie et une estimation des valeurs initiales fractionnaires. Pendant ce temps, la partie inconnue est estimée via une stratégie innovante de fenêtre glissante. Deuxièmement, pour les systèmes linéaires d'ordre fractionnaire avec des accélérations comme sortie, l'estimation de l'intégrale fractionnaire de l'accélération est d'abord considérée pour les systèmes mécaniques de vibration d'ordre fractionnaire, où seules des mesures d'accélération bruitées sont disponibles. Basée sur des approches numériques existantes qui traitent des intégrales fractionnaires, notre attention se limite principalement à l'estimation des valeurs initiales inconnues en utilisant la méthode des fonctions modulatrices. Sur cette base, le résultat est ensuite généralisé aux systèmes linéaires plus généraux d'ordre fractionnaire. En particulier, le comportement des dérivées fractionnaires à zéro est étudié pour des fonctions absolument continues, ce qui est assez différent de celui de l'ordre entier. Troisièment, pour les systèmes à retards d'ordre fractionnaire, l'estimation du pseudo-état est étudiée en concevant un système dynamique auxiliaire d'ordre fractionnaire, qui fournit un cadre plus général pour générer les fonctions modulatrices requises. Avec l'introduction de l'opérateur de retard et du changement de coordonnées généralisé bicausal, l'estimation du pseudo-état du système considéré peut être réduite à celle de la forme normale correspondante. Contrairement aux travaux précédents le schéma présenté permet une estimation directe du pseudo-état plutôt que d'estimer les dérivées fractionnaires de la sortie et un ensemble de valeurs initiales fractionnaires. De plus, l'efficacité et la robustesse des estimateurs proposés sont vérifiées par des simulations numériques dans cette thèse. Enfin, un résumé de ce travail et un aperçu des travaux futurs sont tirés
This thesis develops the modulating functions method for non-asymptotic and robust estimations for fractional-order nonlinear systems, fractional-order linear systems with accelerations as output, and fractional-order time-delay systems. The designed estimators are provided in terms of algebraic integral formulas, which ensure non-asymptotic convergence. As an essential feature of the designed estimation algorithms, noisy output measurements are only involved in integral terms, which endows the estimators with robustness against corrupting noises. First, for fractional-order nonlinear systems which are partially unknown, fractional derivative estimation of the pseudo-state is addressed via the modulating functions method. Thanks to the additive index law of fractional derivatives, the estimation is decomposed into the fractional derivatives estimation of the output and the fractional initial values estimation. Meanwhile, the unknown part is fitted via an innovative sliding window strategy. Second, for fractional-order linear systems with accelerations as output, fractional integral estimation of the acceleration is firstly considered for fractional-order mechanical vibration systems, where only noisy acceleration measurements are available. Based on the existing numerical approaches addressing the proper fractional integrals of accelerations, our attention is primarily restricted to estimating the unknown initial values using the modulating functions method. On this basis, the result is further generalized to more general fractional-order linear systems. In particular, the behaviour of fractional derivatives at zero is studied for absolutely continuous functions, which is quite different from that of integer order. Third, for fractional-order time-delay systems, pseudo-state estimation is studied by designing a fractional-order auxiliary modulating dynamical system, which provides a more general framework for generating the required modulating functions. With the introduction of the delay operator and the bicausal generalized change of coordinates, the pseudo-state estimation of the considered system can be reduced to that of the corresponding observer normal form. In contrast to the previous work, the presented scheme enables direct estimation for the pseudo-state rather than estimating the fractional derivatives of the output and a bunch of fractional initial values. In addition, the efficiency and robustness of the proposed estimators are verified by numerical simulations in this thesis. Finally, a summary of this work and an insight into future work were drawn
Styles APA, Harvard, Vancouver, ISO, etc.
2

Toulemonde, Gwladys. « Estimation et tests en théorie des valeurs extrêmes ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00348589.

Texte intégral
Résumé :
Cette thèse se décompose en trois parties distinctes auxquelles s'ajoute une introduction. Dans un premier temps, nous nous intéressons à un test lisse d'ajustement à la famille de Pareto. Pour cela, nous proposons une statistique de test motivée par la théorie de LeCam sur la normalité asymptotique locale (LAN). Nous en établissons le comportement asymptotique sous l'hypothèse que l'échantillon provient d'une distribution de Pareto et sous des alternatives locales, nous plaçant ainsi dans le cadre LAN. Des simulations sont présentées afin d'étudier le comportement de la statistique de test à distance finie. Dans le chapitre suivant, nous nous plaçons dans le cadre de données censurées aléatoirement à droite. Nous proposons alors un estimateur des paramètres de la distribution de Pareto généralisée basé sur une première étape de l'algorithme de Newton-Raphson. Nous établissons la normalité asymptotique de cet estimateur. Par des simulations, nous illustrons son comportement à distance finie et le comparons à celui de l'estimateur du maximum de vraisemblance. Nous proposons enfin, dans un dernier chapitre, un modèle linéaire autorégressif adapté à la loi de Gumbel pour prendre en compte la dépendance dans les maxima. Nous établissons des propriétés théoriques de ce modèle et par simulations nous illustrons son comportement à distance finie. Enfin, comme des applications concrètes en sciences de l'atmosphère motivaient ce modèle, nous l'avons utilisé pour modéliser des maxima de dioxyde de carbone et de méthane.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ayvazyan, Vigen. « Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif ». Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14671/document.

Texte intégral
Résumé :
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé
Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise
Styles APA, Harvard, Vancouver, ISO, etc.
4

Makhoul-Karam, Noha. « Time-slicing, rescaling and ratio-based parallel time integration ». Rennes 1, 2010. http://www.theses.fr/2010REN1S156.

Texte intégral
Résumé :
Dans cette thèse, nous proposons un schéma parallèle en temps, l'algorithme RaPTI, pour résoudre des problèmes à valeur initiale. Cet algorithme utilise une technique de calcul en tranches de temps avec redimensionnement, et certaines propriétés de similarité qui en découlent, pour générer la grille de temps grossière et fournir des prédictions au moyen d'une méthode de ratios. La procédure de correction se fait ensuite sur une grille de temps fine, et en parallèle. % les systèmes redimensionnés. Ceci conduit à des sauts sur la grille de temps grossière. Les prédictions sont alors corrigées et le processus est itéré jusqu'à ce que tous les sauts soient inférieurs à une certaine tolérance. L'algorithme RaPTI est appliqué à trois problèmes : un problème de membrane, un problème de réaction-diffusion et un calcul de trajectoire de satellite dans un mouvement perturbé en J2. Dans quelques rares cas d'invariance, il conduit à un parallélisme parfait. Dans les cas plus courants de similarité, il donne de bons speed-ups
In this thesis, we propose a Ratio-based Parallel Time Integration (RaPTI) algorithm for solving initial value problems, in a time-parallel way. RaPTI algorithm uses a time-slicing and rescaling technique, with some resulting similarity properties, for generating a coarse grid and providing ratio-based predictions of the starting values at the onset of every time-slice. The correction procedure is performed on a fine grid and in parallel, yielding some gaps on the coarse grid. Then, the predictions are updated and the process is iterated, until all the gaps are within a given tolerance. RaPTI algorithm is applied to three problems: a membrane problem, a reaction-diffusion problem and a satellite trajectory in a J2-perturbed motion. In some rare cases of invariance, it yields a perfect parallelism. In the more general cases of similarity, it yields good speed-ups
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lekina, Alexandre. « Estimation non-paramétrique des quantiles extrêmes conditionnels ». Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00529476.

Texte intégral
Résumé :
L'objectif de ce travail est de proposer de nouveaux estimateurs de quantiles extrêmes dans le cadre conditionnel c'est-à-dire dans la situation où la variable d'intérêt Y, supposée aléatoire et réelle, est mesurée simultanément avec une covariable X. Pour ce faire, nous nous intéressons à l'étude des valeurs extrêmes d'un échantillon d'observations indépendantes dont la loi conditionnelle de Y en un point x de la covariable X est à " queue lourde ". Selon la nature de la covariable, nous considérons deux situations. Primo, lorsque la covariable est déterministe et de dimension finie ou infinie (i.e covariable fonctionnelle), nous proposons d'estimer les quantiles extrêmes par la méthode dite de la " fenêtre mobile ". La loi limite des estimateurs ainsi construits est ensuite donnée en fonction de la vitesse de convergence de l'ordre du quantile vers un. Secundo, lorsque la covariable est aléatoire et de dimension finie, nous montrons que sous certaines conditions, il est possible d'estimer les quantiles extrêmes conditionnels au moyen d'un estimateur à " noyau " de la fonction de survie conditionnelle. Ce résultat nous permet d'introduire deux versions lisses de l'estimateur de l'indice de queue conditionnel indispensable lorsque l'on veut extrapoler. Nous établissons la loi asymptotique de ces estimateurs. Par ailleurs, nous considérons le cas sans covariable (non conditionnel) lorsque la fonction de répartition est à " queue lourde ". Nous proposons et étudions un nouvel estimateur des quantiles extrêmes. Afin d'apprécier le comportement de nos nouveaux outils statistiques, des résultats sur simulation ainsi que sur des données réelles sont présentés.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Rietsch, Théo. « Théorie des valeurs extrêmes et applications en environnement ». Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00876217.

Texte intégral
Résumé :
Dans cette thèse nous apportons plusieurs contributions, à la fois théoriques et appliquées, à la théorie des valeurs extrêmes. Les deux premiers chapitres de cette thèse s'attachent à répondre à des questions cruciales en climatologie. La première question est de savoir si un changement dans le comportement des extrêmes de température peut être détecté entre le début du siècle et aujourd'hui. Pour cela nous proposons d'utiliser la divergence de Kullback Leibler, que nous adaptons au contexte des extrêmes. Des résultats théoriques et des simulations permettent de valider l'approche proposée, dont les performances sont ensuite illustrées sur un jeu de données réelles. La deuxième question quant à elle combine les réseaux de neurones à la théorie des valeurs extrêmes afin de savoir où ajouter (resp. retirer) des stations dans un réseau pour gagner (resp. perdre) le plus (resp. le moins) d'information sur le comportement des extrêmes. Un algorithme, le Query By Committee, issu de la théorie du machine learning est développé puis appliqué à un jeu de données réelles. Les avantages, inconvénients et limites de cette approche sont ainsi mis en exergue. La dernier chapitre de la thèse traite d'un sujet plus théorique, à savoir l'estimation robuste du paramètre de queue d'une distribution de type Weibull en présence de covariables aléatoires. Nous proposons un estimateur robuste en utilisant un critère de minimisation de la divergence entre deux densités et étudions ses propriétés asymptotiques. Des simulations illustrent les performances de l'estimateur à distance finie. Cette thèse offre de nombreuses perspectives dont une liste non exhaustive est dressée en conclusion.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Pham, Quang Khoai. « Estimation non paramétrique adaptative dans la théorie des valeurs extrêmes : application en environnement ». Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS361/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de développer des méthodes statistiques basées sur la théorie des valeurs extrêmes pour estimer des probabilités d'évènements rares et des quantiles extrêmes conditionnelles. Nous considérons une suite de variables aléatoires indépendantes X_{t_1}$, $X_{t_2}$,...$,$X_{t_n}$ associées aux temps $0≤t_{1}< …
The objective of this PhD thesis is to develop statistical methods based on the theory of extreme values to estimate the probabilities of rare events and conditional extreme quantiles. We consider independent random variables $X_{t_1},…,X_{t_n}$ associated to a sequence of times $0 ≤t_1 <… < t_n ≤ T_{\max}$ where $X_{t_i}$ has distribution function $F_{t_i}$ and $F_t$ is the conditional distribution of $X$ given $T = t \in [0,T_{\max}]$. For each $ t \in [0, T {\max}]$, we propose a nonparametric adaptive estimator for extreme quantiles of $F_t$. The idea of our approach is to adjust the tail of the distribution function $F_t$ with a Pareto distribution of parameter $\theta {t,\tau}$ starting from a threshold $\tau$. The parameter $\theta {t,\tau}$ is estimated using a nonparametric kernel estimator of bandwidth $h$ based on the observations larger than $\tau$. We propose a sequence testing based procedure for the choice of the threshold $\tau$ and we determine the bandwidth $h$ by two methods: cross validation and an adaptive procedure. Under some regularity assumptions, we prove that the adaptive estimator of $\theta {t, \tau}$ is consistent and we determine its rate of convergence. We also propose a method to choose simultaneously the threshold $\tau$ and the bandwidth $h$. Finally, we study the proposed procedures by simulation and on real data set to contribute to the survey of aquatic systems
Styles APA, Harvard, Vancouver, ISO, etc.
8

Kachour, Maher. « Une nouvelle classe de modèles autorégressifs à valeurs entières ». Rennes 1, 2009. https://tel.archives-ouvertes.fr/tel-00442146.

Texte intégral
Résumé :
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles autorégressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d' autocorrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits
In many practical situations we deal with integer-valued time series. The analysis of such a time series present some difficulties, namely where the analysis is based on some stochastic models. These models must reflect the integer peculiarity of the observed series. Many attempts have been made to define some models which can be used to describe integer-valued time series. Most of the proposed models are based on the thinning operator and they have the same properties as the real-valued models well-known in the literature. The aim of this thesis is to study the integer-valued autoregressive models. We introduce a new class of models based on the rounding operator. Compared to the existent models, the new class has several advantages : simple innovation structure, autoregressive coefficients with arbitrary signs, possible negative values for time series and for the autocorrelation function. We study the stationarity of the models and the strong consistency of the least squares estimator proposed to estimate the parameters. We analyze some well-known time series with the introduced models
Styles APA, Harvard, Vancouver, ISO, etc.
9

Côte, Raphaël. « Construction et propriétés de solutions pour des équations dispersives focalisantes ». Cergy-Pontoise, 2006. http://www.theses.fr/2006CERG0298.

Texte intégral
Résumé :
Dans cette thèse, nous étudions quelques propriétés de solutions d'équations aux dérivées partielles dispersives focalisantes. On étudie deux types d'équations. Dans un premier temps, nous étudions les équations de Korteweg-de Vries généralisées (gKdV). Étant donnée une solution de l'équation de Korteweg-de Vries linéaire, nous construisons une solution de (gKdV) qui se comporte ainsi pour des temps grands. Étant également donnés N solitons (ondes solitaires solutions de (gKdV)), nous construisons, dans les cas L2-critique et sous-critique, une solution de (gKdV) se comportant comme la somme de ces N solitons et de la solution linéaire. Dans un deuxième temps, nous nous intéressons au système des wave maps en dimension. Critique (1+2) : c'est un modèle simple d'équation des ondes dans un cadre géométrique. Nous montrons que les fonctions harmoniques (wave maps stationnaires) sont instables dans l'espace d'énergie, en un sens fort, pour ce système
In this work we study sorne properties of solutions to dispersive focalizing partial differential equations. We study two types of equations. In chapters 2 to 4, we study the generalized Korteweg-de Vries equations (gKdV). Given a solution to the linear Korteweg-de Vries equation, we construct a solution to (gKdV) which behaves like this for large times. Given N solitons solutions (stationnary wave solutions to (gKdV)), we construct in the L2-critieal and sub-critieal cases, a solution to (gKdV) which behaves like the sum of these solitons and of the linear solution. In chapter 5, we are interested in the wave map system in critical dimension (1+2) : this is a simple model for the wave equation in a geometrieal background. We prove that harmonie functions (stationnary wave maps) are instable in the energy space, in a strong sense, for this system
Styles APA, Harvard, Vancouver, ISO, etc.
10

Albert, Clément. « Estimation des limites d'extrapolation par les lois de valeurs extrêmes. Application à des données environnementales ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM079/document.

Texte intégral
Résumé :
Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes
This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent
Styles APA, Harvard, Vancouver, ISO, etc.
11

Pan, Cihui. « Diffraction électromagnétique par des réseaux et des surfaces rugueuses aléatoires : mise en œuvre deméthodes hautement efficaces pour la résolution de systèmes aux valeurs propres et de problèmesaux conditions initiales ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV020/document.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la diffraction électromagnétique par des réseau et surfaces rugueuse aléatoire. Le méthode C est une méthode exacte développée pour ce but. Il est basé sur équations de Maxwell sous forme covariante écrite dans un système de coordonnées non orthogonal. Le méthode C conduisent à résoudre le problème de valeur propre. Le champ diffusé est expansé comme une combinaison linéaire des solutions propres satisfaisant à la condition d’onde sortant.Nous nous concentrons sur l’aspect numérique de la méthode C, en essayant de développer une application efficace de cette méthode exacte. Pour les réseaux, nous proposons une nouvelle version de la méthode C qui conduit `a un système différentiel avec les conditions initiales. Nous montrons que cette nouvelle version de la méthode C peut être utilisée pour étudier les réseaux de multicouches avec un médium homogène.Nous vous proposons un algorithme QR parallèle conçu spécifiquement pour la méthode C pour résoudre le problème de valeurs propres. Cet algorithme QR parallèle est une variante de l’algorithme QR sur la base de trois tech- niques: “décalage rapide”, poursuite de renflement parallèle et de dégonflage parallèle agressif précoce (AED)
We study the electromagnetic diffraction by gratings and random rough surfaces. The C-method is an exact method developed for this aim. It is based on Maxwell’s equations under covariant form written in a nonorthogonal coordinate system. The C-method leads to an eigenvalue problem, the solution of which gives the diffracted field.We focus on the numerical aspect of the C-method, trying to develop an efficient application of this exact method. For gratings, we have developed a new version of C-method which leads to a differential system with initial conditions. This new version of C-method can be used to study multilayer gratings with homogeneous medium.We implemented high performance algorithms to the original versions of C-method. Especially, we have developed a specifically designed parallel QR algorithm for the C- method and spectral projection method to solve the eigenvalue problem more efficiently. Experiments have shown that the computation time can be reduced significantly
Styles APA, Harvard, Vancouver, ISO, etc.
12

TORKI, MOUNIR. « Valeurs propres de matrices symetriques : analyses de la sensibilite d'ordre superieur et formulations variationnelles pour leur estimation ». Toulouse 3, 1999. http://www.theses.fr/1999TOU30175.

Texte intégral
Résumé :
La premiere partie de cette these est consacree a l'analyse de la sensibilite (du premier et) du second ordre des valeurs propres d'un operateur symetrique. Dans un premier temps, nous exploitons des resultats fins concernant la perturbation de sous-espaces invariants dus a stewart, afin d'etablir l'existence de deux types de derivees directionnelles secondes pour la m-ieme plus grande valeur propre m. La situation est differente du point de vue de l'epi-differentiabilite : on montre, en effet, que m est deux fois epi-derivable si et seulement si cette valeur propre se situe en debut d'un groupe de valeurs propres egales. Nous etendons cette analyse au cadre plus general des fonctions spectrales convexes. Enfin, nous nous penchons sur la question de la sensibilite du premier-ordre de toutes les valeurs propres non nulles d'un operateur autoadjoint compact. L'approche variationnelle permet d'expliciter la derivee directionnelle classique ainsi que la derivee generalisee de clarke de l'application m-ieme plus grande valeur propre. L'objet de la seconde partie est l'analyse de principes variationnels non-homogenes rattaches aux elements propres d'une matrice symetrique reelle. Certaines de ces formulations sont dues a auchmuty qui les presenta comme alternatives au quotient de rayleigh. Apres avoir decrit les proprietes variationnelles de ces fonctions, nous montrons que leur non-homogeneite en font des candidates plus adaptees a la minimisation que le critere de rayleigh couramment utilise. Nous developpons alors une serie d'algorithmes bases sur l'un de ces principes et destines a estimer la plus grande paire propre d'une matrice symetrique de (tres) grande taille. Dans une derniere partie, nous decrivons de nouveaux principes variationnels non-homogenes destines a estimer la largeur du spectre et le conditionnement d'une matrice symetrique.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Mazo, Gildas. « Construction et estimation de copules en grande dimension ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM058/document.

Texte intégral
Résumé :
Ces dernières décennies, nous avons assisté à l'émergence du concept de copule en modélisation statistique. Les copules permettent de faire une analyse séparée des marges et de la structure de dépendance induite par une distribution statistique. Cette séparation facilite l'incorporation de lois non gaussiennes, et en particulier la prise en compte des dépendances non linéaires entre les variables aléatoires. La finance et l'hydrologie sont deux exemples de sciences où les copules sont très utilisées. Cependant, bien qu'il existe beaucoup de familles de copules bivariées, le choix reste limité en plus grande dimension: la construction de copules multivariées/en grande dimension reste un problème ouvert aujourd'hui. Cette thèse présente trois contributions à la modélisation et à l'inférence de copules en grande dimension. Le premier modèle proposé s'écrit comme un produit de copules bivariées, où chaque copule bivariée se combine aux autres via un graphe en arbre. Elle permet de prendre en compte les différents degrés de dépendance entre les différentes paires. La seconde copule est un modèle à facteurs basé sur une classe nonparamétrique de copules bivariées. Elle permet d'obtenir un bon équilibre entre flexibilité et facilité d'utilisation. Cette thèse traite également de l'inférence paramétrique de copules dans le cas général, en établissant les propriétés asymptotiques d'un estimateur des moindres carrés pondérés basé sur les coefficients de dépendance. Les modèles et méthodes proposés sont appliqués sur des données hydrologiques (pluies et débits de rivières)
In the last decades, copulas have been more and more used in statistical modeling. Their popularity owes much to the fact that they allow to separate the analysis of the margins from the analysis of the dependence structure induced by the underlying distribution. This renders easier the modeling of non Gaussian distributions, and, in particular, it allows to take into account non linear dependencies between random variables. Finance and hydrology are two examples of scientific fields where the use of copulas is nowadays standard. However, while many bivariate families exist in the literature, multivariate/high dimensional copulas are much more difficult to construct. This thesis presents three contributions to copula modeling and inference, with an emphasis on high dimensional problems. The first model writes as a product of bivariate copulas and is underlain by a tree structure where each edge represents a bivariate copula. Hence, we are able to model different pairs with different dependence properties. The second one is a factor model built on a nonparametric class of bivariate copulas. It exhibits a good balance between tractability and flexibility. This thesis also deals with the parametric inference of copula models in general. Indeed, the asymptotic properties of a weighted least-squares estimator based on dependence coefficients are established. The models and methods have been applied to hydrological data (flow rates and rain falls)
Styles APA, Harvard, Vancouver, ISO, etc.
14

Collet, Jérôme. « Les Processus Longue Mémoire : Prévisions, Estimations et Valeurs Extrêmes ». Reims, 2003. http://www.theses.fr/2003REIMS010.

Texte intégral
Résumé :
Ce travail concerne l'étude de processus Longue mémoire (LM dans la suite). Après avoir rappelé le concept de LM, nous présentons, Chapitre 1, les processus LM du type Gegenbauer. Des propriétés sont rappelées, ainsi que des méthodes d'estimations et de prévisions de séries au moyen de ces processus. Chapitre 2, nous nous intéressons aux processus LM non gaussiens. Une méthode permettant de construire ces processus est développée et utilisée ensuite en vue d'estimations et de prévisions de séries temporelles. Chapitre 3, nous étudions différents problèmes intervenant lors de la modélisation de séries au moyen de processus de Gegenbauer, comme la sous-modélisation. Chapitre 4, nous nous intéressons aux comportements extrêmes de processus en appliquant les résultats du Chapitre 2. Après avoir énoncé quelque propriétés concernant le comportement extrême de quelques processus indépendants et stationnaires, nous donnons des propriétés de l'indice extrême pour ces processus
This thesis deals with the long memory (LM hereafter) processes. After recalling the concept of LM, we present, in Chapter 1, the LM Gegenbauer process. Some properties of these processes and standard results on forecasting and estimation are recalled. In Chapter 2, we examine the non Gaussian LM processes. A method of construction of these processes is presented and used to make estimations and forecasting of time series. In Chapter 3, we investigate different problems encountered in modelling time series with Gegenbauer processes, such as under-fitting. In Chapter 4, we study the extreme behaviour of processes using the methods developed in Chapter 2. After recalling some properties of extreme behaviour of independent and stationary processes,we give some properties of the extremal index for these series
Styles APA, Harvard, Vancouver, ISO, etc.
15

Debbabi, Nehla. « Approche algébrique et théorie des valeurs extrêmes pour la détection de ruptures : Application aux signaux biomédicaux ». Thesis, Reims, 2015. http://www.theses.fr/2015REIMS025/document.

Texte intégral
Résumé :
Ce travail développe des techniques non-supervisées de détection et de localisation en ligne de ruptures dans les signaux enregistrés dans un environnement bruité. Ces techniques reposent sur l'association d'une approche algébrique avec la TVE. L'approche algébrique permet d'appréhender aisément les ruptures en les caractérisant en termes de distributions de Dirac retardées et leurs dérivées dont la manipulation est facile via le calcul opérationnel. Cette caractérisation algébrique, permettant d'exprimer explicitement les instants d'occurrences des ruptures, est complétée par une interprétation probabiliste en termes d'extrêmes : une rupture est un évènement rare dont l'amplitude associée est relativement grande. Ces évènements sont modélisés dans le cadre de la TVE, par une distribution de Pareto Généralisée. Plusieurs modèles hybrides sont proposés dans ce travail pour décrire à la fois le comportement moyen (bruit) et les comportements extrêmes (les ruptures) du signal après un traitement algébrique. Des algorithmes entièrement non-supervisés sont développés pour l'évaluation de ces modèles hybrides, contrairement aux techniques classiques utilisées pour les problèmes d'estimation en question qui sont heuristiques et manuelles. Les algorithmes de détection de ruptures développés dans cette thèse ont été validés sur des données générées, puis appliqués sur des données réelles provenant de différents phénomènes, où les informations à extraire sont traduites par l'apparition de ruptures
This work develops non supervised techniques for on-line detection and location of change-points in noisy recorded signals. These techniques are based on the combination of an algebraic approach with the Extreme Value Theory (EVT). The algebraic approach offers an easy identification of the change-points. It characterizes them in terms of delayed Dirac distributions and their derivatives which are easily handled via operational calculus. This algebraic characterization, giving rise to an explicit expression of the change-points locations, is completed with a probabilistic interpretation in terms of extremes: a change point is seen as a rare and extreme event. Based on EVT, these events are modeled by a Generalized Pareto Distribution.Several hybrid multi-components models are proposed in this work, modeling at the same time the mean behavior (noise) and the extremes ones (change-points) of the signal after an algebraic processing. Non supervised algorithms are proposed to evaluate these hybrid models, avoiding the problems encountered with classical estimation methods which are graphical ad hoc ones. The change-points detection algorithms developed in this thesis are validated on generated data and then applied on real data, stemming from different phenomenons, where change-points represent the information to be extracted
Styles APA, Harvard, Vancouver, ISO, etc.
16

Schorgen, Antoine. « Valeurs extrêmes : covariables et cadre bivarié ». Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00814559.

Texte intégral
Résumé :
Cette thèse aborde deux sujets peu traités dans la littérature concernant le théorie des valeurs extrêmes : celui des observations en présence de covariables et celui des mesures de dépendance pour des paires d'observations. Dans la première partie de cette thèse, nous avons considéré le cas où la variable d'intérêt est observée simultanément avec une covariable, pouvant être fixe ou aléatoire. Dans ce contexte, l'indice de queue dépend de la covariable et nous avons proposé des estimateurs de ce paramètre dont nous avons étudié les propriétés asymptotiques. Leurs comportements à distance finie ont été validés par simulations. Puis, dans la deuxième partie, nous nous sommes intéressés aux extrêmes multivariés et plus particulièrement à mesurer la dépendance entre les extrêmes. Dans une situation proche de l'indépendance asymptotique, il est très difficile de mesurer cette dépendance et de nouveaux modèles doivent être introduits. Dans ce contexte, nous avons adapté un outil de géostatistique, le madogramme, et nous avons étudié ses propriétés asymptotiques. Ses performances sur simulations et données réelles ont également été exhibées. Cette thèse offre de nombreuses perspectives, tant sur le plan pratique que théorique dont une liste non exhaustive est présentée en conclusion de la thèse.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Dusson, Geneviève. « Estimation d'erreur pour des problèmes aux valeurs propres linéaires et non-linéaires issus du calcul de structure électronique ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066238/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de fournir des bornes d'erreur pour des problèmes aux valeurs propres linéaires et non linéaires issus du calcul de structure électronique, en particulier celui de l'état fondamental avec la théorie de la fonctionnelle de la densité. Ces bornes d'erreur reposent principalement sur des estimations a posteriori. D'abord, nous étudions un phénomène de compensation d'erreur de discrétisation pour un problème linéaire aux valeurs propres, grâce à une analyse a priori de l'erreur sur l'énergie. Ensuite, nous présentons une analyse a posteriori pour le problème du laplacien aux valeurs propres discrétisé par une large classe d'éléments finis. Les bornes d'erreur proposées pour les valeurs propres simples et leurs vecteurs propres associés sont garanties, calculables et efficaces. Nous nous concentrons alors sur des problèmes aux valeurs propres non linéaires. Nous proposons des bornes d'erreur pour l'équation de Gross-Pitaevskii, valables sous des hypothèses vérifiables numériquement, et pouvant être séparées en deux composantes venant respectivement de la discrétisation et de l'algorithme itératif utilisé pour résoudre le problème non linéaire aux valeurs propres. L'équilibrage de ces composantes d'erreur permet d'optimiser les ressources numériques. Enfin, nous présentons une méthode de post-traitement pour le problème de Kohn-Sham discrétisé en ondes planes, améliorant la précision des résultats à un faible coût de calcul. Les solutions post-traitées peuvent être utilisées soit comme solutions plus précises du problème, soit pour calculer une estimation de l'erreur de discrétisation, qui n'est plus garantie, mais néanmoins proche de l'erreur
The objective of this thesis is to provide error bounds for linear and nonlinear eigenvalue problems arising from electronic structure calculation. We focus on ground-state calculations based on Density Functional Theory, including Kohn-Sham models. Our bounds mostly rely on a posteriori error analysis. More precisely, we start by studying a phenomenon of discretization error cancellation for a simple linear eigenvalue problem, for which analytical solutions are available. The mathematical study is based on an a priori analysis for the energy error. Then, we present an a posteriori analysis for the Laplace eigenvalue problem discretized with finite elements. For simple eigenvalues of the Laplace operator and their corresponding eigenvectors , we provide guaranteed, fully computable and efficient error bounds. Thereafter, we focus on nonlinear eigenvalue problems. First, we provide an a posteriori analysis for the Gross-Pitaevskii equation. The error bounds are valid under assumptions that can be numerically checked, and can be separated in two components coming respectively from the discretization and the iterative algorithm used to solve the nonlinear eigenvalue problem. Balancing these error components allows to optimize the computational resources. Second, we present a post-processing method for the Kohn-Sham problem, which improves the accuracy of planewave computations of ground state orbitals at a low computational cost. The post-processed solutions can be used either as a more precise solution of the problem, or used for computing an estimation of the discretization error. This estimation is not guaranteed, but in practice close to the real error
Styles APA, Harvard, Vancouver, ISO, etc.
18

Usseglio-Carleve, Antoine. « Estimation de mesures de risque pour des distributions elliptiques conditionnées ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1094/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances
Styles APA, Harvard, Vancouver, ISO, etc.
19

De, Moliner Anne. « Estimation robuste de courbes de consommmation électrique moyennes par sondage pour de petits domaines en présence de valeurs manquantes ». Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK021/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à l'estimation robuste de courbes moyennes ou totales de consommation électrique par sondage en population finie, pour l'ensemble de la population ainsi que pour des petites sous-populations, en présence ou non de courbes partiellement inobservées.En effet, de nombreuses études réalisées dans le groupe EDF, que ce soit dans une optique commerciale ou de gestion du réseau de distribution par Enedis, se basent sur l'analyse de courbes de consommation électrique moyennes ou totales, pour différents groupes de clients partageant des caractéristiques communes. L'ensemble des consommations électriques de chacun des 35 millions de clients résidentiels et professionnels Français ne pouvant être mesurées pour des raisons de coût et de protection de la vie privée, ces courbes de consommation moyennes sont estimées par sondage à partir de panels. Nous prolongeons les travaux de Lardin (2012) sur l'estimation de courbes moyennes par sondage en nous intéressant à des aspects spécifiques de cette problématique, à savoir l'estimation robuste aux unités influentes, l'estimation sur des petits domaines, et l'estimation en présence de courbes partiellement ou totalement inobservées.Pour proposer des estimateurs robustes de courbes moyennes, nous adaptons au cadre fonctionnel l'approche unifiée d'estimation robuste en sondages basée sur le biais conditionnel proposée par Beaumont (2013). Pour cela, nous proposons et comparons sur des jeux de données réelles trois approches : l'application des méthodes usuelles sur les courbes discrétisées, la projection sur des bases de dimension finie (Ondelettes ou Composantes Principales de l'Analyse en Composantes Principales Sphériques Fonctionnelle en particulier) et la troncature fonctionnelle des biais conditionnels basée sur la notion de profondeur d'une courbe dans un jeu de données fonctionnelles. Des estimateurs d'erreur quadratique moyenne instantanée, explicites et par bootstrap, sont également proposés.Nous traitons ensuite la problématique de l'estimation sur de petites sous-populations. Dans ce cadre, nous proposons trois méthodes : les modèles linéaires mixtes au niveau unité appliqués sur les scores de l'Analyse en Composantes Principales ou les coefficients d'ondelettes, la régression fonctionnelle et enfin l'agrégation de prédictions de courbes individuelles réalisées à l'aide d'arbres de régression ou de forêts aléatoires pour une variable cible fonctionnelle. Des versions robustes de ces différents estimateurs sont ensuite proposées en déclinant la démarche d'estimation robuste basée sur les biais conditionnels proposée précédemment.Enfin, nous proposons quatre estimateurs de courbes moyennes en présence de courbes partiellement ou totalement inobservées. Le premier est un estimateur par repondération par lissage temporel non paramétrique adapté au contexte des sondages et de la non réponse et les suivants reposent sur des méthodes d'imputation. Les portions manquantes des courbes sont alors déterminées soit en utilisant l'estimateur par lissage précédemment cité, soit par imputation par les plus proches voisins adaptée au cadre fonctionnel ou enfin par une variante de l'interpolation linéaire permettant de prendre en compte le comportement moyen de l'ensemble des unités de l'échantillon. Des approximations de variance sont proposées dans chaque cas et l'ensemble des méthodes sont comparées sur des jeux de données réelles, pour des scénarios variés de valeurs manquantes
In this thesis, we address the problem of robust estimation of mean or total electricity consumption curves by sampling in a finite population for the entire population and for small areas. We are also interested in estimating mean curves by sampling in presence of partially missing trajectories.Indeed, many studies carried out in the French electricity company EDF, for marketing or power grid management purposes, are based on the analysis of mean or total electricity consumption curves at a fine time scale, for different groups of clients sharing some common characteristics.Because of privacy issues and financial costs, it is not possible to measure the electricity consumption curve of each customer so these mean curves are estimated using samples. In this thesis, we extend the work of Lardin (2012) on mean curve estimation by sampling by focusing on specific aspects of this problem such as robustness to influential units, small area estimation and estimation in presence of partially or totally unobserved curves.In order to build robust estimators of mean curves we adapt the unified approach to robust estimation in finite population proposed by Beaumont et al (2013) to the context of functional data. To that purpose we propose three approaches : application of the usual method for real variables on discretised curves, projection on Functional Spherical Principal Components or on a Wavelets basis and thirdly functional truncation of conditional biases based on the notion of depth.These methods are tested and compared to each other on real datasets and Mean Squared Error estimators are also proposed.Secondly we address the problem of small area estimation for functional means or totals. We introduce three methods: unit level linear mixed model applied on the scores of functional principal components analysis or on wavelets coefficients, functional regression and aggregation of individual curves predictions by functional regression trees or functional random forests. Robust versions of these estimators are then proposed by following the approach to robust estimation based on conditional biais presented before.Finally, we suggest four estimators of mean curves by sampling in presence of partially or totally unobserved trajectories. The first estimator is a reweighting estimator where the weights are determined using a temporal non parametric kernel smoothing adapted to the context of finite population and missing data and the other ones rely on imputation of missing data. Missing parts of the curves are determined either by using the smoothing estimator presented before, or by nearest neighbours imputation adapted to functional data or by a variant of linear interpolation which takes into account the mean trajectory of the entire sample. Variance approximations are proposed for each method and all the estimators are compared to each other on real datasets for various missing data scenarios
Styles APA, Harvard, Vancouver, ISO, etc.
20

Bouquiaux, Christel. « Semiparametric estimation for extreme values ». Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210910.

Texte intégral
Résumé :
Nous appliquons la théorie asymptotique des expériences statistiques à des problèmes liés aux valeurs extrêmes. Quatre modèles semi-paramétriques sont envisagés. Tout d'abord le modèle d'échantillonnage de fonction de répartition de type Pareto. L'index de Pareto est le paramètre d'intérêt tandis que la fonction à variation lente, qui intervient dans la décomposition de la fonction de survie, joue le rôle de nuisance. Nous considérons ensuite des observations i.i.d. de fonction de répartition de type Weibull. Le troisième modèle étudié est un modèle de régression. On considère des couples d'observations $(Y_i,X_i)$ indépendants, les v.a. $X_i$ sont i.i.d. de loi connue et on suppose que la fonction de répartition de la loi de $Y$ conditionnellement à $X$ est de type Pareto, avec une fonction à variation lente et un index $gamma$ qui dépendent de $X$. On fait l'hypothèse que la fonction $gamma$ a une forme quelconque mais connue, qui dépend d'un paramètre $\
Doctorat en sciences, Orientation statistique
info:eu-repo/semantics/nonPublished
Styles APA, Harvard, Vancouver, ISO, etc.
21

Ayari, Samia. « Nonparametric estimation of the dependence function for multivariate extreme value distributions ». Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4078.

Texte intégral
Résumé :
Dans cette thèse, nous abordons l'estimation non paramétrique de la fonction de dépendance des distributions multivariées à valeurs extrêmes. Dans une première partie, on adopte l’hypothèse classique stipulant que les variables aléatoires sont indépendantes et identiquement distribuées (i.i.d). Plusieurs estimateurs non paramétriques sont comparés pour une fonction de dépendance trivariée de type logistique dans deux différents cas. Dans le premier cas, on suppose que les fonctions marginales sont des distributions généralisées à valeurs extrêmes. La distribution marginale est remplacée par la fonction de répartition empirique dans le deuxième cas. Les résultats des simulations Monte Carlo montrent que l'estimateur Gudendorf-Segers (Gudendorf et Segers, 2011) est plus efficient que les autres estimateurs pour différentes tailles de l’échantillon. Dans une deuxième partie, on ignore l’hypothèse i.i.d vue qu’elle n'est pas vérifiée dans l'analyse des séries temporelles. Dans le cadre univarié, on examine le comportement extrêmal d'un modèle autorégressif Gaussien stationnaire. Dans le cadre multivarié, on développe un nouveau théorème qui porte sur la convergence asymptotique de l'estimateur de Pickands vers la fonction de dépendance théorique. Ce fondement théorique est vérifié empiriquement dans les cas d’indépendance et de dépendance asymptotique. Dans la dernière partie de la thèse, l'estimateur Gudendorf-Segers est utilisé pour modéliser la structure de dépendance des concentrations extrêmes d’ozone observées dans les stations qui enregistrent des dépassements de la valeur guide et limite de la norme Tunisienne de la qualité d'air NT.106.04
In this thesis, we investigate the nonparametric estimation of the dependence function for multivariate extreme value distributions. Firstly, we assume independent and identically distributed random variables (i.i.d). Several nonparametric estimators are compared for a trivariate dependence function of logistic type in two different cases. In a first analysis, we suppose that marginal functions are generalized extreme value distributions. In a second investigation, we substitute the marginal function by the empirical distribution function. Monte Carlo simulations show that the Gudendorf-Segers (Gudendorf and Segers, 2011) estimator outperforms the other estimators for different sample sizes. Secondly, we drop the i.i.d assumption as it’s not verified in time series analysis. Considering the univariate framework, we examine the extremal behavior of a stationary Gaussian autoregressive process. In the multivariate setting, we prove the asymptotic consistency of the Pickands dependence function estimator. This theoretical finding is confirmed by empirical investigations in the asymptotic independence case as well as the asymptotic dependence case. Finally, the Gudendorf-Segers estimator is used to model the dependence structure of extreme ozone concentrations in locations that record several exceedances for both guideline and limit values of the Tunisian air quality standard NT.106.04
Styles APA, Harvard, Vancouver, ISO, etc.
22

Dernis, Mathieu. « Modélisation et estimation des valeurs apportées au pays hôte pour aider à la décision dans l’élaboration des stratégies In-Country-Value ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC030/document.

Texte intégral
Résumé :
Ces travaux s’intéressent au choix des tratégies de création de valeur dans des pays pétroliers. Ils cherchent à offrir des outils à un décideur pour améliorer la compréhension du problème et procéder au choix de stratégies sous des contraintes de coûts. La thèse s’articule autour d’un processus d’aide à la décision adapté au contexte pétrolier et de trois questions de recherche : 1. Comment modéliser les valeurs durables apportées par des projets complexes dans un pays hôte ? 2. Comment outiller une entreprise d’une méthode d’estimation des valeurs créées localement en tenant compte des effets indirects et induits ? 3. Comment aider à la décision pour la sélection de stratégies agissant sur de multiples systèmes ? Pour y répondre, nous avons pris en compte les spécificités du contexte du contenu local dans le domaine pétrolier. Nous y avons apporté des méthodes de génie industriel et d’aide à la décision multicritère. Nous aboutissons à une proposition de modélisation de la valeur apportée à un pays hôte. Celle-ci nous permet d’introduire une méthodologie d’estimation des impacts d’une stratégie. Enfin, nous proposons une procédure pour réaliser des recommandations à un décideur
Our research focus on the problem of choosing among value-creation strategies in the context of Oil and Gas development project. The objective is to offer tools to a decision maker to improve his understanding of the problem and to aid to decision. The thesis is structured around a decision-making process adapted to the Oil and Gas context and three research questions: 1. How to model the sustainable values brought by complex projects in a hostcountry? 2. How to furnish to a company a method to estimate local values brought, taking into account indirect and induced effects? 3. How to aid to select among strategies that impact multiple systems? To answer, we took into account the specificities of local content in the Oil and Gas. We brought metholodologies from industrial engineering and multicriteria decision aid. We propose a modeling of the value-added brought to a host country. This allows us to introduce an estimation methodology for the impacts of a strategy. Finally, we suggest a procedure for making recommendations to a decision maker
Styles APA, Harvard, Vancouver, ISO, etc.
23

Ribatet, Mathieu. « Consolidation de l'information hydrologique disponible localement et régionalement pour l'estimation probabiliste du régime des crues ». Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00232772.

Texte intégral
Résumé :
Le praticien, lors de l'étape de prédétermination des débits de crue, est souvent confronté à un jeu de données restreint. Dans notre travail de recherche, nous avons proposé trois nouveaux modèles probabilistes spécialement conçus pour l'estimation des caractéristiques du régime des crues en contexte partiellement jaugé. Parmi ces modèles, deux d'entre eux sont des modèles dits régionaux, i.e. intégrant de l'information en provenance de stations ayant un comportement réputé similaire à celui du site étudié. Ces modèles, basés sur la théorie Bayésienne, ont montré une grande robustesse au degré d'hétérogénéité des sites appartenant à la région. De même, il est apparu que pour l'estimation des forts quantiles (T > 50 ans), l'idée d'un paramètre régional contrôlant l'extrapolation est pertinente mais doit d'être intégrée de manière souple et non imposée au sein de la vraisemblance. L'information la plus précieuse dont le praticien dispose étant celle en provenance du site d'étude, le troisième modèle proposé revient sur l'estimation à partir des seules données contemporaines au site d'étude. Ce nouveau modèle utilise une information plus riche que celle issue d'un échantillonnage classique de v.a.i.id. maximales puisque toute la chronique est exploitée. Dès lors, même avec seulement cinq années d'enregistrement et grâce à une modélisation de la dépendance entres les observations successives, la taille des échantillons exploités est alors bien plus importante. Nous avons montré que pour l'estimation des quantiles de crues, ce modèle surpasse très nettement les approches locales classiquement utilisées en hydrologie. Ce résultat est d'autant plus vrai lorsque les périodes de retour deviennent importantes. Enfin, part construction, cette approche permet également d'obtenir une estimation probabiliste de la dynamique des crues.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Aubert, Yoann. « Estimation des valeurs extrêmes de débit par la méthode Shyreg : réflexions sur l'équifinalité dans la modélisation de la transformation pluie en débit ». Paris 6, 2012. http://www.theses.fr/2012PA066002.

Texte intégral
Résumé :
La connaissance des débits de crue reste un axe de recherche important en hydrologie pour la conception des aménagements des cours d’eau, le dimensionnement des ouvrages de franchissement et la protection des zones urbaines. L’équipe de recherche en hydrologie du Cemagref d’Aix-en-Provence a réalisée le développement d’une approche par simulation de scénarios de crue, basée sur le couplage d’un générateur de chroniques de pluies horaires et d’un modèle de transformation de la pluie en débit. Cette approche, appliquée à l’échelle du kilomètre carré (simulation ponctuelle de chronique de pluies et modélisation hydrologique sur petit bassin versant) permet la génération de multiples chroniques de pluies et de débits d’où l’on extrait des distributions de fréquences de leurs caractéristiques (pluie et débit maximums de différentes durées). Une fois régionalisée, l’approche fournit une cartographie de l’aléa pluvial et débimétrique à l’échelle de la France. Les débits à l’éxutoire d’un bassin versant sont alors estimés par une règle d’agglomération des débits aux différents pixels qui constituent le bassin versant, prenant en compte l’abattement statistique de la pluie sur le bassin et l’abattement hydraulique dans le réseau de drainage. C’est le principe de la méthode SHYREG. Le développement opérationnel a fait appel à des hypothèses successives de simplifications qui ont été revues dans ce travail de thèse. L’objectif était donc d’apporter des améliorations dans la modélisation pluie-débit utilisée afin de répondre aux problèmes suivants : quelle est la validité du domaine géographique d’application de la méthode ? quelle est la validité du domaine extrapolation fréquentielle de la méthode ? Les différentes hypothèses dans la méthode ont toutes une interaction les unes avec les autres, ce qui rend leur étude particulièrement difficile. Une hiérarchisation des hypothèses a été faite, en fonction de leur caractère plutôt général (indépendant des bassins versants et soumis à un calage global), ou plutôt local (dépendant du bassin et soumis à un calage local). Dans ce contexte, on traite des points suivants: - L’amélioration de la fonction d’agglomération des débits qui permet de passer du pixel à l’exutoire d’un bassin. La reformulation de cette règle d’abattement a permis d’élargir la gamme de superficie des bassins où la méthode reste applicable. - La prise en compte d’un débit de base dans la modélisation hydrologique des crues a permis d’améliorer les performances en dehors de sa zone de développement (hors bassins méditerranéens). - L’étude de l’équifinalité de certains paramètres a permis de proposer une extrapolation vers les fréquences rares, en fonction de différents critères. Cette approche « multi-critère » est un moyen de faire un choix sur les hypothèses les plus probables d’une méthode dans le cas particulier de l’extrapolation en fréquence, où il existe peu d’information pour valider. Sur l’ensemble de ces points, on s’est appuyé sur un large échantillon de bassins versants regroupant l’ensemble des réponses hydrologiques possibles (bassin à influence méditerranéen, pluvio-nival, remontée de nappe). D’autre part, on dispose de quantiles de débit (pour les fréquences courantes et les fréquences extrêmes) issus de l’application d’autres méthodes que l’on a confronté avec les quantiles SHYREG
Since 1995, French law has been requesting municipalities to achieve flood prevention plans thanks to flood frequency analysis (FFA). For hydraulic works (like bridges or dams spillways), the French legislation requires the building companies to design their infrastructure by taking into account the vulnerability of the surrounding and downstream areas for different return periods. The Cemagref, now IRSTEA – French National Research Institute of Science and Technology for Environment and Agriculture – has developed an original flood prediction method based upon simulation. It implements: - a hourly rainfall generator which consists of a stochastic rainfall model (based upon the geometric description of temporal rainfall signals), - a lumped conceptual rainfall-runoff model. The parameters of the rainfall generator and the rainfall runoff model are regionalized at the spatial resolution of 1 km2 thus allowing the implementation of both models in each 1 km2 pixel in the regionalized version, called Shyreg. Frequency distributions are then derived in each pixel from the simulated events. The results can be shown as maps of statistical estimates of rainfall and flood discharge of various duration (up to 72 hours) and return periods (from 2 to 1000 years). In order to estimate the flood discharge quantiles at the outlet of catchment, we need to aggregate this distributed statistical hydrological data thanks to a Discharge Areal Reduction Factor (DARF) function. This aggregation combines two distinct hydrological phenomena: the areal reduction of rainfall and the discharge attenuation in the channel network. The aim of this PhD thesis was to test different hypothesis on the hydrological model and to make improvement in the rainfall-runoff modelling. Two questions are discussed: - what is the geographical validity domain of the method? - what is the validity of the method in flood frequency extrapolation? Several assumptions used in the method have interaction with each other, making their study difficult. So, we have dispatched the hypotheses on the parameters in function of their link to the catchment: independent or dependant of catchment. The independent parameters mean we don’t need to calibrate the method on each catchment. The dependent parameters mean we must determine their values on each catchment. Our work has enabled to improve the method on the following points: - the first improvement was to assess the DARF function for all sizes of French watersheds. We have calibrated this function with sizes of catchment ranging from 2 km² to 110 000 km². - the second improvement consisted of taking account the base flow in the hydrological modelling. - our third improvement goal was to study and reduce the problem of equifinality, i. E. To determine the parameters able to modelise the catchments behaviours for current events as well as for extreme ones. As no observation data are available for such low frequency events, we used two validation criteria. The first criterion is based on statistical tests (reliability and robustness) and the second criterion is based on the model saturation for extreme events. We have used in the thesis, two set of data. The first set is a large sample of catchments evenly located over the French metropolitan territory, with sizes ranging from 2 km² and 110 000 km². The second set of data consists of discharge quantiles (from current to extreme frequency) derived from the application of other methods (QdF, Gradex), which we have compared with the Shyreg discharge quantiles
Styles APA, Harvard, Vancouver, ISO, etc.
25

Dede, Sophie. « Théorèmes limites fonctionnels et estimation de la densité spectrale pour des suites stationnaires ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00440850.

Texte intégral
Résumé :
L'objet de ma thèse est l'étude du comportement de certaines distances entre la mesure empirique d'un processus stationnaire et sa loi marginale (distance de type Cramér-Von Mises ou de type Wasserstein), dans le cas de variables aléatoires dépendantes au sens large, incluant par exemple, certains systèmes dynamiques. Nous établissons, dans un second chapitre, un principe de déviations modérées, sous des conditions projectives, pour une suite stationnaire de variables aléatoires bornées à valeurs dans un espace de Hilbert H, que ce soit pour un processus adapté ou non. Parmi les applications, nous avons travaillé, non seulement à l'étude de la statistique de Cramér-Von Mises, mais aussi sur les fonctions de processus linéaires (importantes dans les problèmes de prédiction) et les chaines de Markov stables. Dans le troisième chapitre, nous donnons un Théorème Limite Central pour des suites stationnaires ergodiques de différences de martingales dans L^1. Puis, par une approximation par des différences de martingales, nous en déduisons un Théorème Limite Central pour des suites stationnaires ergodiques de variables aléatoires à valeurs dans L^1, et satisfaisant des conditions projectives. Ceci nous permet d'obtenir des résultats sur le comportement asymptotique de statistiques du type distance de Wasserstein pour une importante classe de suites dépendantes. En particulier, les résultats sont appliquées à l'étude de systèmes dynamiques, ainsi qu'à celle des processus linéaires causaux. Pour finir, afin de construire des intervalles de confiance asymptotiques pour la moyenne d'une suite stationnaire à partir du Théorème Limite Central, nous proposons un estimateur lissé de la densité spectrale. Dans ce dernier chapitre, nous donnons des critères projectifs pour la convergence dans L^1 d'un estimateur lissé de la densité spectrale. Cela nous permet via un Théorème Limite Central d'avoir des régions de confiance pour les paramètres dans un modèle de régression paramétrique.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Wintenberger, Olivier. « Contributions à la statistique des processus : estimation, prédiction et extrêmes ». Habilitation à diriger des recherches, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00757756.

Texte intégral
Résumé :
Ce mémoire d'habilitation traite de la statistique des processus à temps discret faiblement dépendants. Une première partie présente des résultats asymptotiques d'estimation pour les paramètres de modèles affines généraux. La méthode étudiée est la maximisation du critère de quasi-vraisemblance. Afin de traiter de possibles ruptures de stationnarité, nous pénalisons ce critère par le nombre de ruptures. Pour les modèles à volatilité comme le modèle EGARCH, cette procédure est instable et nous proposons de contraindre le critère au domaine dit d'inversibilité continue. Nous étudions le problème de la prédiction de processus faiblement dépendants dans une seconde partie. Les résultats obtenus sont des inégalités d'oracle non asymptotiques nécessitant l'étude préalable des propriétés de concentration gaussiennes de lois faiblement dépendantes. Pour ce faire nous utilisons une notion de transport faible et de nouvelles inégalités dites de transport conditionnel. Enfin, le comportement des extrêmes en présence de dépendance fait l'objet de la troisième partie. Nous introduisons un indice de {\it cluster} qui caractérise les lois limites $\alpha$-stables dans le théorème de la limite centrale et les grandes déviations des sommes partielles à variation régulière. Nous traitons des exemples de processus à queues épaisses tels que les solutions des équations récurrentes stochastiques linéaires et le modèle GARCH. Nous appliquons ces résultats pour caractériser asymptotiquement les erreurs d'estimation des auto-covariances de processus à queues épaisses.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Hoayek, Anis. « Estimation des paramètres pour des modèles adaptés aux séries de records ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT336/document.

Texte intégral
Résumé :
Dans une série chronologique, une observation est appelée record au temps «t» si sa valeur est supérieure à toutes les valeurs précédentes. Suivant l’augmentation de «t», considérons la suite des valeurs des records et la suite des indices d’occurrence des records. Les propriétés stochastiques des suites de valeurs des records ont été largement étudiées dans le cas où les observations sont des variables aléatoires indépendantes et identiquement distribuées (iid). Il se trouve que beaucoup de ces propriétés sont universelles, c’est-à-dire tiennent pour n’importe quelle loi de probabilité commune des observations. En particulier, les records ont tendance à devenir plus espacés dans le temps à mesure que «t» augmente. Cependant, ce n’est pas ce que l’on observe dans de nombreux jeux de données réelles. Ceci a conduit à l’élaboration de modèles plus complexes pour fournir une meilleure prédiction.Le modèle, peut-être le plus simple mais en tout cas le plus populaire, pour une série de records issus d’observations indépendantes mais non identiquement distribuées est le modèle à dérive linéaire (LDM). Ce modèle a été étudié par de nombreux auteurs et trouvé en accord avec certains types de données où l’hypothèse iid ne tient pas. Cependant, dans des situations pratiques, l’utilisation du LDM nécessite la détermination du paramètre de dérive du modèle et cela pousse le problème dans le domaine de la statistique.Il existe une similitude entre les records et le traitement de données censurées en analyse de survie. En particulier, toutes les observations qui tombent entre deux records consécutifs et au-delà du dernier record peuvent être considérées comme des observations censurées par le dernier record observé. Pour mettre en évidence cette similitude, on introduit la suite des indicatrices de records qui prennent la valeur 1 si l’observation est un record et 0 sinon.Un autre modèle populaire est le modèle Yang-Nevzorov. Ce modèle est intéressant car il a la structure d’un modèle à risque proportionnel en analyse de survie, lequel a montré son utilité dans ce domaine pour modéliser de nombreux jeux de données. Cependant, à notre connaissance, l’inférence statistique pour le modèle Yang-Nevzorov a été peu développé.Le but de ce travail est d’introduire certains estimateurs des différents paramètres des modèles LDM et Yang respectivement et d’en obtenir leurs propriétés statistiques. Il est montré que le mécanisme de censure est informatif pour certains paramètres. Cela justifie l’analyse des qualités d’estimateurs qui peuvent être obtenus à partir de ces indicatrices de records. Nous donnons quelques propriétés exactes et asymptotiques de ces estimateurs. Il se trouve que dans le modèle de Yang, le comportement des différents estimateurs est indépendant de la distribution sous-jacente. Notons que nos estimateurs peuvent être utilisés même lorsque les valeurs exactes des records sont elles-mêmes indisponibles ou de mauvaise qualité et les seules indicatrices sont disponibles ou fiables. En outre, il est montré que des tests d’ajustement du modèle de Yang peuvent aussi être dérivés de ces indicatrices. Ces tests ont même des capacités diagnostiques qui peuvent aider à suggérer des corrections au modèle.Toujours dans le contexte d’un modèle de Yang, nous étudions le comportement stochastique du temps inter-records et nous donnons sa loi asymptotique, indépendamment de la loi des va sous-jacentes. De plus, nous appliquons nos résultats théoriques à des données analysées précédemment par Yang.Enfin, nous passons à l’utilisation de la totalité des données disponibles (valeurs et indices/indicatrices de records) afin de calculer, par plusieurs méthodes, des estimateurs des paramètres des modèles LDM et Yang-Nevzorov. De plus, nous introduisons des tests statistiques qui nous aident à vérifier la conformité du choix de la distribution sous-jacente des observations et à choisir entre un modèle LDM et de Yang
In a time series, an observation is called a record at time «t» if its value is greater than all previous values. As «t» increases, consider the sequence of records and the sequence of indices of occurrence of the records.The stochastic properties of sequences of record values have been much studied in the case where the observations are independent and identically distributed (iid) random variables. It turns out that many of these properties are universal, i.e. they hold for any cumulative distribution function for the underlying observations. In particular, records have a tendency to become further separated in time as «t» increases. However, this is not what is observed in many real data sets. This has lead to the development of more comprehensive models to provide better prediction.One of the simplest and popular model for a series of records extracted from independent but not identically distributed observations is the linear drift model (LDM). This model has been studied by many authors and found to be in agreement with some data sets where the iid assumption does not hold. However, for its uses in practical situations, the LDM requires the specification of the drift parameter of the model and this brings the problem into the realm of statistics.There are similarities between records and censored data in e.g. survival analysis. In particular, all observations that fall between two consecutive records and beyond the last record, can be seen as censored, by the last observed record. To highlight these similarities, consider the sequence of record indicators which are 1 if the observation is a record and 0 otherwise.Another popular model is the Yang-Nevzorov model. This model is interesting because it has the structure of a proportional hazard model, which have been shown to provide good fit to many data sets in survival analysis. However, to the best of our knowledge, statistical inference for the Yang- Nevzorov model has been little developed.The goal of this work is to introduce some estimators of the parameters in LDM and Yang’s model respectively and derive their statistical properties. It is shown that the censoring mechanism is informative for certain parameters. This justifies investigating the usefulness of estimators that can be extracted from record indicators. We give some exact and asymptotic properties of these estimators. It turns out that in a Yang’s model, the behavior of these estimators is distribution-free, i.e. does not involve the underlying CDF. Note that our estimators can be used even when the exact value of the records are themselves unavailable or of poor quality and only the indicators of their occurrence are available or trustworthy. Also, it is shown that distribution-free goodness-of-fit tests for Yang’s model can be derived from these indicators. These tests even have some diagnostic capabilities that can help in suggesting corrections to the model.Still in the context of a Yang’s model, we study the stochastic behavior of the inter-record time and give its asymptotic distribution regardless of the choice of the underlying distribution. In addition, we apply our theoretical results to a previously analyzed data set.Finally, we turn to the use of all available data (record values and indices/indicators) in order to calculate, by several methods, estimators of parameters in LDM and Yang-Nevzorov’s model. In addition, we introduce statistical tests that help us to check the conformity of the choice of the underlying distribution and to choose between LDM and Yang
Styles APA, Harvard, Vancouver, ISO, etc.
28

Ribereau, Pierre. « Quelques contributions à la statistique théorique et appliquée ». Paris 6, 2005. http://www.theses.fr/2005PA066164.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
29

Le, Bihan Nicolas. « Contributions au traitement des signaux à valeurs sur des structures algébriques non-commutatives ». Habilitation à diriger des recherches, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00606665.

Texte intégral
Résumé :
Les travaux présentés s'intéressent au traitement des signaux à valeurs sur des espaces non-commutatifs, en particulier sur le groupe des rotations et les quaternions. Principalement, ce sont les signaux et processus aléatoires qui sont au centre de nos préoccupations, et nous présentons quelques résultats illustrant leur intérêt en physique des ondes polarisées. Nous montrons par exemple comment les processus aléatoires sur le groupe des rotations permettent d'étudier la diffusion multiple des ondes dans les milieux aléatoires et l'apparition de la phase géométrique pour les ondes polarisées dans ces milieux. Les résultats obtenus sont basés sur des notions empruntées à la théorie des groupes et de la représentation, la théorie des processus aléatoires et de l'estimation ainsi qu'à la géométrie différentielle. L'application majeure des résultats présentés est l'étude des ondes élastiques dans les milieux aléatoires.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Blandin, Vassili. « Estimation de paramètres pour des processus autorégressifs à bifurcation ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00842856.

Texte intégral
Résumé :
Les processus autorégressifs à bifurcation (BAR) ont été au centre de nombreux travaux de recherche ces dernières années. Ces processus, qui sont l'adaptation à un arbre binaire des processus autorégressifs, sont en effet d'intérêt en biologie puisque la structure de l'arbre binaire permet une analogie aisée avec la division cellulaire. L'objectif de cette thèse est l'estimation les paramètres de variantes de ces processus autorégressifs à bifurcation, à savoir les processus BAR à valeurs entières et les processus BAR à coefficients aléatoires. Dans un premier temps, nous nous intéressons aux processus BAR à valeurs entières. Nous établissons, via une approche martingale, la convergence presque sûre des estimateurs des moindres carrés pondérés considérés, ainsi qu'une vitesse de convergence de ces estimateurs, une loi forte quadratique et leur comportement asymptotiquement normal. Dans un second temps, on étudie les processus BAR à coefficients aléatoires. Cette étude permet d'étendre le concept de processus autorégressifs à bifurcation en généralisant le côté aléatoire de l'évolution. Nous établissons les mêmes résultats asymptotiques que pour la première étude. Enfin, nous concluons cette thèse par une autre approche des processus BAR à coefficients aléatoires où l'on ne pondère plus nos estimateurs des moindres carrés en tirant parti du théorème de Rademacher-Menchov.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Farhat, Ahmad. « Détection, localisation et estimation de défauts : application véhicule ». Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT056/document.

Texte intégral
Résumé :
Dans la nécessité de développer des véhicules sûrs, confortables, économiques et à faible impact environnemental, les voitures sont de plus en plus équipées d'organes qui emploient des capteurs, actionneurs et systèmes de commande automatiques.Or ces systèmes, critiques pour la sécurité et le confort des passagers, peuvent mal-fonctionner en présence d'une défaillance (défaut).Dans le cadre du diagnostic à bord, plusieurs approches à base de modèle sont développées dans ce travail afin de détecter, localiser et estimer un défaut capteur ou actionneur, et pour détecter la perte de stabilité du véhicule.Ces méthodes reposent sur une synthèse robuste pour les systèmes incertains à commutation.Elles sont validées en simulation avec le logiciel CarSim, et sur les données réelles de véhicule dans le cadre du projet INOVE
Modern vehicles are increasingly equipped with new mechanisms to improve safety, comfort and ecological impact. These active systems employ sensors, actuators and automatic control systems. However, in case of failure of one these components, the consequences for the vehicle and the passengers safety could be dramatic. In order to ensure a higher level of reliability within on board diagnosis, new methodologies for sensor or actuator fault detection, location and estimation are proposed. These model based approaches are extended for robust synthesis for switched uncertain systems. In addition, a method for detecting critical stability situation is presented. The validation of the different methods is illustrated with simulations using CarSim, and application on real vehicle data within the INOVE project
Styles APA, Harvard, Vancouver, ISO, etc.
32

Godin, Alexandre. « Estimation sur des bases orthogonales des propriétés thermiques de matériaux hétérogènes à propriétés constantes par morceaux ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821884.

Texte intégral
Résumé :
Ce travail se propose de caractériser thermiquement des composites à microstructures complexes. Il s'agit de développer des méthodes d'estimation permettant d'identifier les propriétés thermiques des différentes phases en présence, ainsi que celles associées à leurs interfaces, à partir de mesures issues de la thermographie infrarouge. Cette estimation paramétrique nécessite la connaissance au préalable de la structure géométrique de l'échantillon. Le premier objectif concerne donc l'identification de la structure de l'échantillon testé par la discrimination des différentes phases et interfaces. Une fois la structure de l'échantillon connue, le second objectif est l'identification des paramètres thermiques des différents constituants ainsi que ceux de leurs interfaces. On se propose d'exploiter deux tests spécifiques utilisant le même dispositif expérimental. Deux méthodes mathématiques différentes ont été développées et utilisées pour exploiter les mesures de champ issues du premier test et permettre de retrouver la microstructure de l'échantillon. La première est fondée sur la décomposition en valeurs singulières des données de températures recueillies. Il est montré que cette méthode permet d'obtenir des représentations de la microstructure de très bonne qualité à partir de mesures même fortement bruitées. La seconde méthode permet de raffiner les résultats obtenus à l'aide de la méthode précédente. Elle repose sur la résolution d'un problème d'optimisation sous contraintes en exploitant la technique dite Level-Set pour identifier les frontières des différents constituants de l'échantillon. L'étape d'identification des propriétés thermiques des constituants et des interfaces exploite les mesures de champs issues du second test expérimental. La méthode développée, la SVD-FT combine des techniques de décompositions en valeurs singulières avec desfonctions tests particulières pour dériver des estimateurs linéaires des propriétés recherchées.Cette méthode permet de limiter les effets du bruit de mesure sur la qualité de l'estimation et de s'affranchir des opérations de filtrage des données.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Liu, Shuyan. « Lois stables et processus ponctuels : liens et estimation des paramètres ». Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00463817.

Texte intégral
Résumé :
L'objectif de cette thèse est d'étendre une méthode d'estimation des paramètres d'une loi stable dans Rd aux lois à queue régulière dans un cône arbitraire. La méthode d'échantillonnage par paquets est modifiée afin d'optimiser la vitesse de convergence des estimateurs. Un nouvel estimateur de la masse totale de mesure spectrale est proposé. Des résultats sur les statistiques d'ordre des lois à queue régulière dans un cône et la loi des grands nombres pour le schéma triangulaire sont établis. La consistance et la normalité asymptotique des estimateurs sont démontrées. La performance des estimateurs est étudiée par simulation. On compare ces estimateurs avec quelques estimateurs connus. Les tableaux de performance sont fournis. La méthode de noyau est utilisée pour estimer la densité d'une mesure spectrale absolument continue d'une loi à queue régulière. On prouve la consistance de l'estimateur dans notre cas particulier. Pour augmenter le nombre de points utilisés dans l'échantillon, on propose une méthode d'estimation utilisant les permutations aléatoires de l'échantillon. La variation régulière a la propriété d'être préservée par plusieurs opérations et transformations. On considère trois sortes de transformations. Des conditions suffisantes pour cette préservation sont proposées et quelques contre-exemples sont présentés. Les modèles de lois stables et de lois à queue lourde sont très utilisés dans plusieurs domaines d'application. On considère deux jeux de données réelles : les cours des 30 valeurs de l'indice DJIA et les perturbations planétaires des comètes du nuage de Oort. En appliquant la méthode d'estimation présentée on obtient des descriptions statistiques de ces données.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Jbilou, Asma. « Équations hessiennes complexes sur des variétés kählériennes compactes ». Nice, 2010. http://www.theses.fr/2010NICE4006.

Texte intégral
Résumé :
Sur une variété kählérienne compacte connexe de dimension 2m, ! étant la forme de Kähler, ­ une forme volume donnée dans [!]m et k un entier 1 < k < m, on cherche à résoudre de façon unique dans [!] l’équation ˜!k ^!m−k = ­ en utilisant une notion de k-positivité pour ˜! 2 [!] (les cas extrêmes sont résolus : k = m par Yau, k = 1 trivialement). Nous résolvons par la méthode de continuité l’équation hessienne d’ordre k complexe elliptique correspondante sous l’hypothèse que la variété est à courbure bisectionelle holomorphe non-négative, ici requise seulement pour établir un pincement a priori de valeurs propres
On a compact connected 2m-dimensional Kähler manifold with Kähler form !, given a volume form ­ 2 [!]m and an integer 1 < k < m, we want to solve uniquely in [!] the equation ˜!k ^!m−k = ­, relying on the notion of k-positivity for ˜! 2 [!] (the extreme cases are solved : k = m by Yau, k = 1 trivially). We solve by the continuity method the corresponding complex elliptic k-th Hessian equation under the assumption that the holomorphicbisectionalcurvatureofthemanifoldisnon-negative,requiredhereonlyto deriveanapriorieigenvaluespinching
Styles APA, Harvard, Vancouver, ISO, etc.
35

Kouzayha, Salam. « Estimations géométriques de fonctionnelles spectrales pour le laplacien avec condition de Robin au bord ». Electronic Thesis or Diss., Tours, 2019. http://www.theses.fr/2019TOUR4004.

Texte intégral
Résumé :
Le but de cette thèse est double : Donner des estimations pour les valeurs propres du laplacien sur un domaine borné d'une variété riemannienne avec la condition de Robin au bord. Nos premières estimations constituent une extension de la célèbre inégalité de Kröger sur les valeurs propres du laplacien euclidien avec condition de Neumann au bord, au cas plus gé- néral d'une variété riemannienne avec la condition de Robin au bord. De plus, ces estimations sont en accord avec la loi asymptotique de Weyl en ce qui concerne la dépendance en l'ordre de la valeur propre. Un deuxième type d'estimations géométriques pour les valeurs propres de Robin est obtenu dans le cas où la courbure de Ricci de la variété considérée est minorée. En utilisant la définition des valeurs propres par la formule de min-max, on est capable de les majorer en fonction de la dimension de la variété, du minorant de la courbure de Ricci, du volume du domaine et de son bord, et enfin de l'intégrale de la fonction de Robin sur le bord du domaine. Etudier le spectre du laplacien pondéré par la présence de deux densités sur un domaine borné d'une variété riemannienne avec les conditions de Neumann au bord dans le cas où l'une des densité est une puissance positive de l'autre. On démontre l'existence d'une valeur critique pour cette puissance : si la puissance est plus petite que cette valeur critique, la valeur propre correspondante est majorée. Cependant, si la puissance dépasse cette valeur, on démontre l'existence des domaines ayant une première valeur propre aussi grande que l'on veut
The aim of my thesis is to give some estimations for the eigenvalues of the Laplacian with Robin boundary conditions the principal results are divided in two categories. The first result is based on an algebric method and give an estimation of the eigenvalues in euclidean spaces and homogeneous manifolds. The second result is an estimation of the egenvalues in terms of the Ricci curvature of the manifold
Styles APA, Harvard, Vancouver, ISO, etc.
36

Garrido, Myriam. « Modélisation des évènements rares et estimation des quantiles extrêmes , méthodes de sélection de modèles pour les queues de distribution ». Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00004666.

Texte intégral
Résumé :
Cette thèse étudie la modélisation d'événements rares et l'estimation de quantiles extrêmes, à travers différents types de modèles et le choix de ces modèles. La théorie des valeurs extrêmes, et en particulier la méthode des excès (POT, Peaks Over Threshold), permettent une estimation non paramétrique, mais biaisée, des queues de distribution. Nous souhaitons donc utiliser des modèles paramétriques classiques. Cependant, ces modèles étant estimés et sélectionnés par des tests usuels à partir de l'échantillon complet, les résultats sont surtout influencés par les valeurs les plus probables de la variable. Nous proposons deux tests d'adéquation pour la queue de distribution, le test ET (Exponential Tail) et le test GPD (Generalised Pareto Distribution), pour sélectionner, par comparaison avec la méthode POT, les modèles produisant de bonnes estimations de la queue de distribution. Lorsqu'on souhaite reconstituer la loi dont sont issues les observations aussi bien dans la région centrale que dans la région extrême, on applique d'abord à un ensemble de modèles un test usuel (d'adéquation aux valeurs les plus probables), puis un test d'adéquation de la queue de distribution. Si aucune loi n'est acceptée par les deux types de tests, nous proposons une procédure de régularisation bayésienne qui, à partir d'un modèle adapté aux valeurs les plus probables, permet d'améliorer l'adéquation extrême grâce à un avis d'expert sur la queue de distribution. Enfin, si on revient à la méthode POT, il faut en réduire le biais d'estimation, notamment pour l'estimation des quantiles extrêmes. Cette méthode étant fondée sur l'approximation de la loi des excès au-delà d'un seuil par une loi GPD, nous cherchons à mieux en estimer les paramètres. L'inférence bayésienne sur les paramètres de la loi GPD permet de réduire le biais d'estimation des quantiles extrêmes par la méthode POT, en particulier quand on introduit un avis d'expert sur la queue de distribution.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Marushkevych, Dmytro. « Asymptotic study of covariance operator of fractional processes : analytic approach with applications ». Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1010/document.

Texte intégral
Résumé :
Les problèmes aux valeurs et fonctions propres surviennent fréquemment dans la théorie et dans les applications des processus stochastiques. Cependant quelques-uns seulement admettent une solution explicite; la résolution est alors généralement obtenue par la théorie généralisée de Sturm-Liouville pour les opérateurs différentiels. Les problèmes plus généraux ne peuvent pas être résolus sous une forme fermée et le sujet de cette thèse est l'analyse spectrale asymptotique des processus gaussiens fractionnaires et ses applications. Dans la première partie, nous développons une méthodologie pour l'analyse spectrale des opérateurs de covariance de type fractionnaire, correspondant à une famille importante de processus, incluant le processus fractionnaire d'Ornstein-Uhlenbeck, le mouvement brownien fractionnaire intégré et le mouvement brownien fractionnaire mixte. Nous obtenons des approximations asymptotiques du second ordre pour les valeurs propres et les fonctions propres. Au chapitre 2, nous considérons le problème aux valeurs et fonctions propres pour l'opérateur de covariance des ponts gaussiens. Nous montrons comment l'asymptotique spectrale d'un pont peut être dérivée de celle de son processus de base, en prenant comme exemple le cas du pont brownien fractionnaire. Dans la dernière partie, nous considérons trois applications représentatives de la théorie développée: le problème de filtrage des signaux gaussiens fractionnaires dans le bruit blanc, le problème de grande déviation pour le processus d'Ornstein-Uhlenbeck gouverné par un mouvement brownien fractionnaire mixte et probabilités des petites boules pour les processus gaussiens fractionnaires
Eigenproblems frequently arise in theory and applications of stochastic processes, but only a few have explicit solutions. Those which do are usually solved by reduction to the generalized Sturm-Liouville theory for differential operators.The more general eigenproblems are not solvable in closed form and the subject of this thesis is the asymptotic spectral analysis of the fractional Gaussian processes and its applications.In the first part, we develop methodology for the spectral analysis of the fractional type covariance operators, corresponding to an important family of processes that includes the fractional Ornstein-Uhlenbeck process, the integrated fractional Brownian motion and the mixed fractional Brownian motion. We obtain accurate second order asymptotic approximations for both the eigenvalues and the eigenfunctions. In Chapter 2 we consider the covariance eigenproblem for Gaussian bridges. We show how the spectral asymptotics of a bridge can bederived from that of its base process, considering, as an example, the case of the fractional Brownian bridge. In the final part we consider three representative applications of the developed theory: filtering problem of fractional Gaussian signals in white noise, large deviation properties of the maximum likelihood drift parameter estimator for the Ornstein-Uhlenbeck process driven by mixed fractional Brownian motion and small ball probabilities for the fractional Gaussian processes
Styles APA, Harvard, Vancouver, ISO, etc.
38

Fries, Sébastien. « Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLG005/document.

Texte intégral
Résumé :
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes
In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification
Styles APA, Harvard, Vancouver, ISO, etc.
39

Dejean-Viellard, Catherine. « Etude des techniques de régularisation en radiothérapie conformationnelle avec modulation d'intensité et évaluation quantitative des distributions de dose optimales ». Toulouse 3, 2003. http://www.theses.fr/2003TOU30195.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
40

Roizman, Violeta. « Flexible clustering algorithms for heterogeneous datasets ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG002.

Texte intégral
Résumé :
L'objectif de la segmentation de données ou clustering est de trouver des groupes homogènes en fonction d'une distance prédeterminée. Étant donnée sa nature non supervisée, le clustering peut être appliqué à tout type de données et peut s'affranchir de processus d'étiquetage (labels) qui peuvent s'avérer très coûteux. Parmi les algorithmes de clustering les plus populaires, celui basé sur le modèle de mélange gaussien (MMG) est particulièrement intéressant. En effet, cet algorithme est très intuitif et fonctionne très bien lorsque les groupes ont une forme elliptique.Cependant, le modèle MMG est peu performant lorsque les données ont une loi qui s'éloigne d'un mélange de lois gaussiennes.En effet, les performances de l'algorithme peuvent être fortement détériorées par la non-robustesse des estimateurs classiques impliqués dans l'ajustement du modèle lorsque les données contiennent des aberrations ou du bruit. De plus, le MMG de base utilisé dans des applications de clustering n'est pas bien adapté aux contextes de données de grande dimension.Dans cette thèse, nous proposons une approche alternative à la robustesse de la méthode MMG. Nous utilisons un modèle basé sur des distributions symétriques elliptiques, permettant de décrire une famille plus générale de distributions. En outre, nous introduisons des paramètres supplémentaires qui augmentent la flexibilité de notre modèle et conduisent à des généralisations des estimateurs robustes classiques. Afin d'étayer les premières conclusions quant à la robustesse de l'algorithme proposé, des analyses théoriques et pratiques sont faites. Elles permettent notamment de mettre en valeur le caractère général de ces travaux.Ensuite, nous nous intéressons au problème de rejet de valeurs aberrantes. Nous considérons une version robuste de la distance de Mahalanobis et nous étudions sa distribution. Une bonne connaissance de cette distribution est essentielle car elle permet de fixer un seuil de rejet pour la classification de nouvelles données.Enfin, nous abordons deux applications liées au traitement d'images radar avec une perspective de clustering. Tout d'abord, nous considérons un problème de segmentation d'images. En dernier lieu, nous adaptons l'algorithme développé dans cette thèse afin de résoudre le problème de détection de changements dans des séries temporelles d'images
The goal of the clustering task is to find groups of elements that are homogeneous with respect to a chosen distance. Given its unsupervised nature, clustering can be applied to any kind of data and there is no need to proceed to the costly labelling process. One of the most popular clustering algorithms is the one built on the Gaussian Mixture Model (GMM). This algorithm is very intuitive and works well when the clusters have an elliptical shape.Regardless of its popularity, the GMM model has a poor performance when the data points do not fulfil a basic assumption: Gaussian distributed clusters. The model performance can be strongly degraded by the non-robustness of the classical estimators implicated in the model fitting when the data contains outliers or noise.In this thesis, we give an alternative approach to the robustification of the GMM-EM method. We adopt a model based on Elliptical Symmetric distributions that manages to describe a more general range of distributions. Besides, we introduce extra parameters that increase the flexibility of our model and lead to generalizations of classical robust estimators. In order to support the robust claims about our algorithm, we provide theoretical and practical analyses that help to understand the general character of the proposal.Afterwards, we tackle the outlier rejection task. We consider a robust version of the Mahalanobis distance and study its distribution. Knowing the distribution helps us setting a rejection threshold.Finally, we address two applications related to radar images through a clustering perspective. First, we consider the image segmentation task. In the end, we apply our flexible algorithm to solve the change detection problem for image time series
Styles APA, Harvard, Vancouver, ISO, etc.
41

Appert, Damien. « Conception et évaluation de techniques d'interaction non visuelle optimisées pour de la transmission d'information ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30095/document.

Texte intégral
Résumé :
Dans des situations où la perception visuelle est fortement contrainte ou déficiente, il est nécessaire de rendre perceptible l'information dans une modalité non visuelle, tout en prenant en compte des capacités sensorielles et mnésiques humaines. Par exemple, un non-voyant, souhaitant prendre connaissance d'un itinéraire, devra le parcourir de façon non visuelle et le mémoriser. Cependant, outre l'aspect matériel, la mise en œuvre de solutions alternatives (non visuelles) demeure confrontée aux capacités cognitives de l'utilisateur (compréhension, mémorisation, intégration de plusieurs informations, etc.). L'objet de cette thèse est de contribuer à la conception de techniques d'interactions permettant d'optimiser la transmission non visuelle d'informations. A ces fins, j'ai exploré l'apport de la multimodalité comme moyen d'optimisation permettant d'outrepasser les limites de la mémorisation. Je me suis concentré sur l'étude des techniques d'interaction basées sur les modalités auditives et tactiles, en limitant au maximum l'utilisation de la parole, afin de concevoir des techniques pour des environnements différents (flexibilité), d'optimiser l'utilisation de canaux perceptifs (exploitation des propriétés du son dans des messages audio pour transmettre plus d'informations, par exemple), d'éviter de limiter mes techniques par la barrière de la langue ou de sa compréhension et enfin, pour explorer d'autres solutions que la synthèse vocale seule. Les travaux de ma thèse ont mené à la conception, à l'implémentation et à l'évaluation de techniques d'interaction multimodale non visuelle, en réponse à différents contextes, dont, en particulier, ceux de la transmission d'informations de type , (couple de coordonnées) et (séquence de couples direction-distance). Pour parvenir à concevoir mes interactions, j'ai, tout d'abord, effectué une revue de la littérature, afin d'en extraire les principaux facteurs de conception de techniques d'interaction dédiées à la transmission non visuelle d'information. Puis, j'ai organisé ces facteurs sous la forme d'un cadre d'analyse, sur lequel je me suis appuyé pour concevoir chacune de mes techniques. Trois expériences distinctes ont permis d'évaluer l'influence de facteurs de conception sur l'efficacité des interactions et la satisfaction des utilisateurs vis-à-vis des techniques. Je peux, notamment, citer l'implication des utilisateurs (actif ou passif), la présence d'aides explicites", la transmission de plusieurs informations en parallèle et la modalité principale utilisée et, le type de codage dans lequel est encodée l'information
In situations where the visual perception is strongly constraint or deficient, it is necessary to make perceptible the information with a "not visual form" while taking into account human sensory and mnesic capacities. For example, a blind person wishing to acquaint an itinerary must read it under a non visual form and memorize it. However, besides the material aspect, the implementation of alternatives (non-visual) still faces to the cognitive abilities of the user (comprehension, memorization, integration of various information, etc.). The purpose of this thesis is to contribute to the design of interaction techniques allowing to optimize the transmission not visual of the information. For these purposes, I explored the feature of multimodality as a means of optimization, allowing of exceeding the memorization limits. I focused on the study of interaction techniques based on auditory and tactile modalities and by minimizing the use of the speech, in order to develop techniques for different environments (flexibility), optimize the use of perceptual channels (operating the properties of sound in audio messages to transmit more information, for example), avoid limiting my techniques by the language barrier or understanding and finally, to explore alternatives to the synthesised voice alone. The works of my thesis led to the design, to the implementation and to the evaluation of interaction techniques "non-visual" and "multiform", in answer to different contexts, whom in particular those of the information transmission of type , (pair of coordinates) and (sequence of couples direction-distance). To achieve design my interactions, I have made a review of literature in order to extract the main factors of design of interaction techniques dedicated to the transmission not visual of the information. Then, I have organized these factors in an analytical framework on which I have relied to design each of my techniques. Three separate experiments were led to evaluate the influence of design factors on the effectiveness of interactions and satisfaction towards users of technology. I can give some of them, the involvement of users (active or passive), the presence of explicit help, the transmission of several information in parallel, the main modality used and the type of coding in which is encoded the information
Styles APA, Harvard, Vancouver, ISO, etc.
42

Passemier, Damien. « Inférence statistique dans un modèle à variances isolées de grande dimension ». Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00780492.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'estimation statistique dans un modèle à variances isolées (modèle spike) de grande dimension. La théorie des matrices aléatoires permet de prendre en compte cette spécificité, puisque la plupart des résultats limites s'appliquent aux matrices dont la taille tend vers l'infini. Une part importante de ces résultats concerne la matrice de covariance empirique. Dans un premier temps, nous nous intéressons à l'estimation du nombre de facteurs/spikes. La différence de comportement des valeurs propres de la matrice de covariance empirique, selon que l'on considère celles correspondant aux spikes ou non, nous permet de construire un estimateur. Ce dernier correspond à la différence de deux valeurs propres consécutives ordonnées. Nous établissons la consistance de l'estimateur dans le cas où toutes les spikes sont distinctes, et le comparons à deux méthodes existantes à travers des simulations. L'estimateur dépend d'un seuil qui doit remplir certaines conditions. Dans la suite, nous étendons le résultat de consistance au cas d'égalité et améliorons l'estimateur en changeant de seuil. Dans un second temps, nous considérons les estimateurs du maximum de vraisemblance d'un modèle à facteurs strict à variance homoscédastique. En utilisant un théorème limite pour les statistiques spectrales linéaires, nous corrigeons l'estimateur de la variance commune en grande dimension en donnant l'expression de son biais et en établissant sa loi limite. Nous présentons une version corrigée du test du rapport de vraisemblance d'adéquation à un modèle à facteurs. Finalement, nous construisons un test d'égalité de deux spikes.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Ould, Aboubecrine Mohamed Mahmoud. « Sur l'estimation basée sur les records et la caractérisation des populations ». Le Havre, 2011. http://www.theses.fr/2011LEHA0004.

Texte intégral
Résumé :
Dans la première partie de ce travail, nous considérons un nombre k-valeurs records d'une suite de variables aléatoires indépendantes et identiquement distribuées de fonction de répartition F, notre but est de prédire les futures k-valeurs sous des hypothèses adéquates sur la queue de F. Dans la deuxième partie, nous considérons deux populations de tailles finies et étudions leurs caractérisations en utilisant la régression des statistiques d'ordre sur un tirage sans remise. Nous donnons également quelques résultats asymptotiques lorsque la taille de la population tend vers l'infini
In the first part of this work, we consider a number of k-record values from independent and identically distributed random variables with a continuous distribution function F, ou aim is to predict future k-record values under suitable assumptions on the tail of F. In the second part, we consider finite populations and investigate their characterization by regressions of order statistics under sampling without replacement. We also give some asymptotic results when the size of the population goes to infinity
Styles APA, Harvard, Vancouver, ISO, etc.
44

Mahamat, Hisseine Saad. « Estimation de la volatilité des données financières à haute fréquence : une approche par le Modèle Score-GARCH ». Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTD023/document.

Texte intégral
Résumé :
Cette thèse a pour objectif principal d’estimer la volatilité des données financières à haute fréquence par le modèle Score-GARCH, dans le contexte de la crise financière récente (2007-2008). La contribution effective de notre thèse couvre trois axes majeurs. Premièrement, nous avons mis en évidence les faits stylisés observés empiriquement dans les données financières à haute fréquence, dans le cas de quatre actifs financiers de CAC40. Cette étude nous a permis d’analyser la dynamique et l’asymétrie des rendements des actifs financiers à haute fréquence. Deuxièmement, compte tenu des faits stylisés en relation avec le comportement de la volatilité, nous avons modélisé la volatilité des actifs financiers à haute fréquence par le modèle Score-GARCH, et nous l’avons comparé avec le modèles GARCH asymétriques classiques (modèles de référence). Le troisième axe propose des mesures du risque (VaR) de marché intra-journalier dans le contexte particulier des données à haute fréquence régulièrement espacées dans le temps (toutes les cinq minutes)
The main objective of this thesis is to estimate the volatility of high-frequency financial data by the Score-GARCH model in the context of the recent financial crisis (2007-2008). The actual contribution of our thesis covers three major axes. First, we have highlighted the stylized facts observed empirically in high-frequency financial data, in the case of four CAC40 financial assets. This study allowed us to analyze the dynamics and asymmetry of the returns of high-frequency financial assets. Second, given the stylized facts in relation to the behavior of volatility, we have modeled the volatility of high-frequency financial assets by the Score-GARCH model, and compared it with the classic asymmetric GARCH models (reference models ). The third axis proposes intraday market risk measures (VaR) in the particular context of high frequency data regularly spaced over time (every five minutes)
Styles APA, Harvard, Vancouver, ISO, etc.
45

Chautru, Emilie. « Statistiques multivariées pour l'analyse du risque alimentaire ». Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0045/document.

Texte intégral
Résumé :
Véritable carrefour de problématiques économiques, biologiques, sociologiques, culturelles et sanitaires, l’alimentation suscite de nombreuses polémiques. Dans un contexte où les échanges mondiaux facilitent le transport de denrées alimentaires produites dans des conditions environnementales diverses, où la consommation de masse encourage les stratégies visant à réduire les coûts et maximiser le volume de production (OGM, pesticides, etc.) il devient nécessaire de quantifier les risques sanitaires que de tels procédés engendrent. Notre intérêt se place ici sur l’étude de l’exposition chronique, de l’ordre de l’année, à un ensemble de contaminants dont la nocivité à long terme est d’ores et déjà établie. Les dangers et bénéfices de l’alimentation ne se restreignant pas à l’ingestion ou non de substances toxiques, nous ajoutons à nos objectifs l’étude de certains apports nutritionnels. Nos travaux se centrent ainsi autour de trois axes principaux. Dans un premier temps, nous nous intéressons à l'analyse statistique des très fortes expositions chroniques à une ou plusieurs substances chimiques, en nous basant principalement sur des résultats issus de la théorie des valeurs extrêmes. Nous adaptons ensuite des méthodes d'apprentissage statistique de type ensembles de volume minimum pour l'identification de paniers de consommation réalisant un compromis entre risque toxicologique et bénéfice nutritionnel. Enfin, nous étudions les propriétés asymptotiques d'un certain nombre d'estimateurs permettant d'évaluer les caractéristiques de l'exposition, qui prennent en compte le plan de sondage utilisé pour collecter les données
At a crossroads of economical, sociological, cultural and sanitary issues, dietary analysis is of major importance for public health institutes. When international trade facilitates the transportation of foodstuffs produced in very different environmental conditions, when conspicuous consumption encourages profitable strategies (GMO, pesticides, etc.), it is necessary to quantify the sanitary risks engendered by such economic behaviors. We are interested in the evaluation of chronic types of exposure (at a yearly scale) to food contaminants, the long-term toxicity of which is already well documented. Because dietary risk and benefit is not limited to the abuse or the avoidance of toxic substances, nutritional intakes are also considered. Our work is thus organized along three main lines of research. We first consider the statistical analysis of very high long-term types of exposure to one or more chemical elements present in the food, adopting approaches in keeping with extreme value theory. Then, we adapt classical techniques borrowed from the statistical learning field concerning minimum volume set estimation in order to identify dietary habits that realize a compromise between toxicological risk and nutritional benefit. Finally, we study the asymptotic properties of a number of statistics that can assess the characteristics of the distribution of individual exposure, which take into account the possible survey scheme from which the data originate
Styles APA, Harvard, Vancouver, ISO, etc.
46

Akkari, Nissrine. « Etude mathématique de la sensibilité POD (Proper orthogonal decomposition) ». Phd thesis, Université de La Rochelle, 2012. http://tel.archives-ouvertes.fr/tel-01066073.

Texte intégral
Résumé :
Dans cette thèse, nous nous sommes intéressés à l'étude mathématique de la sensibilité paramétrique de la méthode de réduction de modèles par projection connue sous le nom de POD pour Proper Orthogonal Decomposition. Dans beaucoup d'applications de la mécanique des fluides,la base de projection (base POD) calculée à un paramètre caractéristique fixe du problème de Navier-Stokes, est utilisée à la suite pour construire des modèles d'ordre réduit ROM-POD pour d'autres valeurs du paramètre caractéristique. Alors, la prédiction du comportement de ce ROM-POD vis-à-vis du problème initial est devenue cruciale. Pour cela, nous avons discuté cette problématique d'un point de vue mathématique. Nous avons établi des résultats mathématiques de sensibilité paramétrique des erreurs induites par application de la méthode ROM-POD. Plus précisément, notre approche est basée sur l'établissement d'estimations a priori de ces erreurs paramétriques, en utilisant les méthodes énergétiques classiques. Nos résultats sont démontrés pour les deux problèmes de type Burgers et Navier-Stokes. Des validations numériques de ces résultats mathématiques ont été faites uniquement pour le problème de type Burgers.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Picard, Christophe. « ÉTUDE EXPÉRIMENTALE DE L'IDENTIFICATION DES SOURCES ACOUSTIQUES DANS LES JETS PAR L'ANALYSE DE LA FLUCTUATION DE PRESSION EN CHAMP PROCHE ». Phd thesis, Université de Poitiers, 2001. http://tel.archives-ouvertes.fr/tel-00133829.

Texte intégral
Résumé :
Cette étude est consacrée à la possibilité d'identification des sources acoustiques (les structures cohérentes en particulier) dans la zone de mélange de jets turbulents en utilisant la Décomposition Orthogonales aux Valeurs Propres (POD) appliquée aux fluctuations de pression en champ proche. Lors d'une première expérience, on mesure le champ de pression proche d'un jet transsonique et d'un jet supersonique. Dans les deux cas, les deux premiers modes POD, qui à eux seuls captent l'essentiel de l'organisation spatiale et spectrale, possèdent des comportements similaires à ceux observés dans les éléments bibliographiques. Cependant, la seule connaissance du champ de pression ne suffit pas à l'interprétation physique des modes POD en terme d'organisation turbulente de l'écoulement. Une seconde expérience est alors menée dans une configuration plus simple d'un jet à faible vitesse d'éjection. On mesure simultanément la distribution longitudinale des fluctuations de pression en champ proche et les fluctuations de deux composantes de vitesse dans plusieurs tranches de l'écoulement. On accède ainsi aux corrélations spatiales pression-vitesses sur le domaine bidimensionnel de mesure. A partir de ces corrélations et en utilisant l'Estimation Stochastique Linéaire (LSE), on reconstruit la dynamique des grosses structures dans le domaine de mesure à partir seulement de la distribution longitudinale des fluctuations de pression. On montre que l'estimation du champ tourbillonnaire obtenue est en très bon accord avec la physique des phénomènes aux grandes échelles et on l'utilise pour donner une interprétation physique des modes POD de pression : les quatre premiers modes représentent la partie organisée du champ de pression. Enfin, on effectue une évaluation du rayonnement acoustique en champ lointain de l'estimation du champ tourbillonnaire qui s'avère être conforme à ce qui est attendu.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Charron, Jacques-Olivier. « La relation entre estimation de la valeur fondamentale des sociétés cotées et évolution de leur cours : une contribution basée sur des études de cas ». Phd thesis, Conservatoire national des arts et metiers - CNAM, 2010. http://tel.archives-ouvertes.fr/tel-00646347.

Texte intégral
Résumé :
L'efficience fondamentale, i.e. l'efficience comprise comme conformité de la valorisation par les marchés financiers à la valeur fondamentale des titres est en tant que telle peu testée. Notre recherche vise à renouveler ses modes de test en se basant sur une conception constructiviste de la valeur fondamentale. Ce renouvellement, axé sur l'adoption d'un point de vue d'investi, est mis en oeuvre sur 4 cas de sociétés cotées françaises sur une période de 3 ans. La première partie de la thèse est consacrée à l'identification des acteurs les plus légitimés de ce type d'expression publique. Elle montre que ce sont les analystes financiers sell-side. La deuxième partie étudie la relation entre l'estimation publique de la valeur fondamentale par ces acteurs et l'évolution des cours. Elle aboutit au constat d'une estimation fortement dépendante de la dynamique du marché. La troisième partie apporte des éléments d'explication de ce constat en présentant sous la forme d'une configuration le mode d'interdépendance dans lequel s'inscrivent à la fois les analystes, les investisseurs et d'autres acteurs.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Jaunet, Vincent. « Etude d'un jet rectangulaire supersonique à nombre de Mach 1.45 vectorisé par actionneur fluidique ». Phd thesis, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00569333.

Texte intégral
Résumé :
La vectorisation de poussée par actionneurs fluidiques permet d'accroître la manoeuvrabilité des appareils tout en minimisant l'impact sur la masse de l'engin. La petite dimension de la section d'éjection d'une tuyère rectangulaire a été modifiée et équipée d'un actionneur pneumatique, dans l'objectif d'étudier la vectorisation en lacet du jet. Les performances en vectorisation du jet sont investiguées par l'intermédiaire de mesures par vélocimétrie par images de particules (PIV) ; les résultats d'une modélisation numérique RANS, associés aux visualisations expérimentales, permettent d'établir un scénario des mécanismes responsables de la mise en mouvement de l'écoulement. Une discussion quant aux limitations du dispositif peut alors être apportée. Les résultats d'une campagne de mesure par vélocimétrie laser Doppler dans le sillage de l'actionneur permettent de quantifier l'impact de la vectorisation sur la couche de mélange. Il s'avère de plus, que les modifications apportées à la buse génèrent un réseau de chocs particulier qui, associé à l'acoustique se propageant dans la partie subsonique de l'écoulement, impose au jet un battement transversal bidimensionnel très important. La dynamique de ce battement est étudiée par l'intermédiaire d'une analyse par décomposition orthogonale aux valeurs propres (POD) appliquée à des visualisations strioscopiques. On démontre alors le couplage entre le battement du jet et les ondes acoustiques non linéaires dans la région subsonique. Cette dynamique se révèle très robuste, puisqu'encore présente en régime vectorisé.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Jbilou, Asma. « Equations hessiennes complexes sur des variétés kählériennes compactes ». Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00463111.

Texte intégral
Résumé :
Sur une variété kählérienne compacte connexe de dimension 2m, ! étant la forme de Kähler, ­ une forme volume donnée dans [!]m et k un entier 1 < k < m, on cherche à résoudre de façon unique dans [!] l'équation ˜ !k ^!m−k = ­ en utilisant une notion de k-positivité pour ˜ ! 2 [!] (les cas extrêmes sont résolus : k = m par Yau, k = 1 trivialement). Nous résolvons par la méthode de continuité l'équation hessienne d'ordre k complexe elliptique correspondante sous l'hypothèse que la variété est à courbure bisectionelle holomorphe non-négative, ici requise seulement pour établir un pincement a priori de valeurs propres.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie