Dissertations / Theses on the topic 'K-statistiques'

To see the other types of publications on this topic, follow the link: K-statistiques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 dissertations / theses for your research on the topic 'K-statistiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Imlahi, Abdelouahid. "Approximations fortes des valeurs et temps de records bâtis sur les k-ièmes statistiques d'ordre extrêmes." Paris 6, 1990. http://www.theses.fr/1990PA066175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le premier chapitre est consacre a l'etude des encadrements presque surs des records. Celle-ci nous donne des approximations plus fines que celles obtenues dans l'article de deheuvels (1988). Dans le second chapitre, en adaptant les methodes utilisees par steinebach (1986, 1987) pour l'etude de la generalisation de la loi forte des grands nombres de hanson et russo et de la convergence presque sure des processus de renouvellement, nous developpons plusieurs resultats concernant la convergence presque sure des k-iemes records, k-iemes temps de records et k-iemes temps separant deux records successifs. Nous terminons ce chapitre par des applications. Au troisieme chapitre, nous etudions les lois fonctionnelles du logarithme itere liees aux valeurs et instants de records. Nous utilisons plus particulierement un resultat de chan, csorgo et revesz dont nous rectifions l'enonce. La justification de cette correction et la demonstration detaillee de la version correspondante sont faites dans l'annexe finale de notre memoire
2

Debreuve, Eric. "Mesures de similarité statistiques et estimateurs par k plus proches voisins : une association pour gérer des descripteurs de haute dimension en traitement d'images et de vidéos." Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00457710.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Fournier, Alexandre. "Détection et classification de changements sur des zones urbaines en télédétection." Toulouse, ISAE, 2008. https://tel.archives-ouvertes.fr/tel-00463593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde le problème de la détection de changements sur des images de scènes urbaines en télédétection. Les expériences ont été menées sur des couples d'images satellitaires panchromatiques haute résolution (<1m). A travers ce thème général, plusieurs problématiques, correspondant aux divers niveaux d'une chaîne de traitement, sont abordés, depuis la création d'un masque de changements jusqu'au raisonnement à un niveau objet. Dans ce manuscrit, nous abordons premièrement le problème de la détermination d'un masque de changements. Après avoir étudié les limites d'un algorithme de détection de changements, fondé sur l'analyse en composantes principales, nous proposons un algorithme tirant parti de l'invariance des lignes de niveau, fondé sur un modèle d'illumination et des hypothèses sur la régularité de la scène. Par la suite, nous abordons la classification des zones détectées comme changées au cours de l'étape précédente. D'abord, nous nous fondons uniquement sur les radiométries des couples de pixels. Enfin, nous étudions l'intérêt d'une composante géométrique dans la classification. Plus précisément, nous appliquons un algorithme d'approximation polygonale sur les zones connexes issues de la classification précédente, puis nous classifions les formes obtenues compte tenu des orientations des côtés des polygones obtenus.
4

Ould, Aboubecrine Mohamed Mahmoud. "Sur l'estimation basée sur les records et la caractérisation des populations." Le Havre, 2011. http://www.theses.fr/2011LEHA0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la première partie de ce travail, nous considérons un nombre k-valeurs records d'une suite de variables aléatoires indépendantes et identiquement distribuées de fonction de répartition F, notre but est de prédire les futures k-valeurs sous des hypothèses adéquates sur la queue de F. Dans la deuxième partie, nous considérons deux populations de tailles finies et étudions leurs caractérisations en utilisant la régression des statistiques d'ordre sur un tirage sans remise. Nous donnons également quelques résultats asymptotiques lorsque la taille de la population tend vers l'infini
In the first part of this work, we consider a number of k-record values from independent and identically distributed random variables with a continuous distribution function F, ou aim is to predict future k-record values under suitable assumptions on the tail of F. In the second part, we consider finite populations and investigate their characterization by regressions of order statistics under sampling without replacement. We also give some asymptotic results when the size of the population goes to infinity
5

Apostol, Costin. "Apports bioinformatiques et statistiques à l'identification d'inhibiteurs du récepteur MET." Thesis, Lille 2, 2010. http://www.theses.fr/2010LIL2S053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’effet des polysaccharides sur l’interaction HGF-MET est étudié à l’aide d’un plan d’expérience comportant plusieurs puces à protéines sous différentes conditions d’expérimentation. Le but de l’analyse est la sélection des meilleurs polysaccharides inhibiteurs de l’interaction HGF-MET. D’un point de vue statistique c’est un problème de classification. Le traitement informatique et statistique des biopuces obtenues nécessite la mise en place de la plateforme PASE avec des plug-ins d’analyse statistique pour ce type de données. La principale caractéristique statistique de ces données est le caractère de répétition : l’expérience est répétée sur 5 puces et les polysaccharides, au sein d’une même puce, sont répliqués 3 fois. On n’est donc plus dans le cas classique des données indépendantes globalement, mais de celui d’une indépendance seulement au niveau intersujets et intrasujet. Nous proposons les modèles mixtes pour la normalisation des données et la représentation des sujets par la fonction de répartition empirique. L’utilisation de la statistique de Kolmogorov-Smirnov apparaît naturelle dans ce contexte et nous étudions son comportement dans les algorithmes de classification de type nuées dynamique et hiérarchique. Le choix du nombre de classes ainsi que du nombre de répétitions nécessaires pour une classification robuste sont traités en détail. L’efficacité de cette méthodologie est mesurée sur des simulations et appliquée aux données HGF-MET. Les résultats obtenus ont aidé au choix des meilleurs polysaccharides dans les essais effectués par les biologistes et les chimistes de l’Institut de Biologie de Lille. Certains de ces résultats ont aussi conforté l’intuition des ces chercheurs. Les scripts R implémentant cette méthodologie sont intégrés à la plateforme PASE. L’utilisation de l’analyse des données fonctionnelles sur ce type de données fait partie des perspectives immédiates de ce travail
The effect of polysaccharides on HGF-MET interaction was studied using an experimental design with several microarrays under different experimental conditions. The purpose of the analysis is the selection of the best polysaccharides, inhibitors of HGF-MET interaction. From a statistical point of view this is a classification problem. Statistical and computer processing of the obtained microarrays requires the implementation of the PASE platform with statistical analysis plug-ins for this type of data. The main feature of these statistical data is the repeated measurements: the experiment was repeated on 5 microarrays and all studied polysaccharides are replicated 3 times on each microarray. We are no longer in the classical case of globally independent data, we only have independence at inter-subjects and intra-subject levels. We propose mixed models for data normalization and representation of subjects by the empirical cumulative distribution function. The use of the Kolmogorov-Smirnov statistic appears natural in this context and we study its behavior in the classification algorithms like hierarchical classification and k-means. The choice of the number of clusters and the number of repetitions needed for a robust classification are discussed in detail. The robustness of this methodology is measured by simulations and applied to HGF-MET data. The results helped the biologists and chemists from the Institute of Biology of Lille to choose the best polysaccharides in tests conducted by them. Some of these results also confirmed the intuition of the researchers. The R scripts implementing this methodology are integrated into the platform PASE. The use of functional data analysis on such data is part of the immediate future work
6

Lucet, Corinne. "Méthode de décomposition pour l'évaluation de la fiabilité des réseaux." Compiègne, 1993. http://www.theses.fr/1993COMPD653.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une méthode de décomposition pour évaluer la fiabilité K-terminaux de réseaux bidirectionnels, c'est-à-dire, la probabilité qu'un ensemble donné de sommets, appartiennent à une même composante connexe, sachant que les sommets et les arrêtés sont susceptibles de défaillance avec des probabilités données. Les bases de cette méthode ont été exposées en 1977 par Rosenthal. Son principe consiste à numéroter les sommets du réseau afin de construire certains sous-graphes et leurs ensembles frontières, suivant cet ordre. La complexité de la méthode est liée à la taille maximale des ensembles frontières, directe conséquence de la numérotation des sommets, qui doit donc être effectuée de manière à minimiser cette grandeur. La fiabilité du réseau est alors obtenue en calculant la probabilité de certaines classes d'événements des sous-graphes, qui pour le problème particulier de fiabilité tous terminaux, correspondent exactement aux partitions des ensembles frontières. Nous avons implémenté cette méthode pour le problème de fiabilité tous terminaux, ainsi que pour le problème K-terminaux avec sommets défaillants. Les résultats obtenus montrent que la fiabilité de réseaux de plus grande taille que ceux traités dans la littérature, peut être évaluée par la méthode de décomposition. Nous montrons aussi, que d'autres mesures de fiabilité, telle que la 2-arête-connexité, peuvent être abordées par cette méthode.
7

Vincent, Garcia. "Suivi d'objets d'intérêt dans une séquence d'images : des points saillants aux mesures statistiques." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00374657.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème du suivi d'objets dans une vidéo se pose dans des domaines tels que la vision par ordinateur (vidéo-surveillance par exemple) et la post-production télévisuelle et cinématographique (effets spéciaux). Il se décline en deux variantes principales : le suivi d'une région d'intérêt, qui désigne un suivi grossier d'objet, et la segmentation spatio-temporelle, qui correspond à un suivi précis des contours de l'objet d'intérêt. Dans les deux cas, la région ou l'objet d'intérêt doivent avoir été préalablement détourés sur la première, et éventuellement la dernière, image de la séquence vidéo. Nous proposons dans cette thèse une méthode pour chacun de ces types de suivi ainsi qu'une implémentation rapide tirant partie du Graphics Processing Unit (GPU) d'une méthode de suivi de régions d'intérêt développée par ailleurs.
La première méthode repose sur l'analyse de trajectoires temporelles de points saillants et réalise un suivi de régions d'intérêt. Des points saillants (typiquement des lieux de forte courbure des lignes isointensité) sont détectés dans toutes les images de la séquence. Les trajectoires sont construites en liant les points des images successives dont les voisinages sont cohérents. Notre contribution réside premièrement dans l'analyse des trajectoires sur un groupe d'images, ce qui améliore la qualité d'estimation du mouvement. De plus, nous utilisons une pondération spatio-temporelle pour chaque trajectoire qui permet d'ajouter une contrainte temporelle sur le mouvement tout en prenant en compte les déformations géométriques locales de l'objet ignorées par un modèle de mouvement global.
La seconde méthode réalise une segmentation spatio-temporelle. Elle repose sur l'estimation du mouvement du contour de l'objet en s'appuyant sur l'information contenue dans une couronne qui s'étend de part et d'autre de ce contour. Cette couronne nous renseigne sur le contraste entre le fond et l'objet dans un contexte local. C'est là notre première contribution. De plus, la mise en correspondance par une mesure de similarité statistique, à savoir l'entropie du résiduel, d'une portion de la couronne et d'une zone de l'image suivante dans la séquence permet d'améliorer le suivi tout en facilitant le choix de la taille optimale de la couronne.
Enfin, nous proposons une implémentation rapide d'une méthode de suivi de régions d'intérêt existante. Cette méthode repose sur l'utilisation d'une mesure de similarité statistique : la divergence de Kullback-Leibler. Cette divergence peut être estimée dans un espace de haute dimension à l'aide de multiples calculs de distances au k-ème plus proche voisin dans cet espace. Ces calculs étant très coûteux, nous proposons une implémentation parallèle sur GPU (grâce à l'interface logiciel CUDA de NVIDIA) de la recherche exhaustive des k plus proches voisins. Nous montrons que cette implémentation permet d'accélérer le suivi des objets, jusqu'à un facteur 15 par rapport à une implémentation de cette recherche nécessitant au préalable une structuration des données.
8

Levrard, Clément. "Quantification vectorielle en grande dimension : vitesses de convergence et sélection de variables." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112214/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce manuscrit étudie dans un premier temps la dépendance de la distorsion, ou erreur en quantification, du quantificateur construit à partir d'un n-échantillon d'une distribution de probabilité via l'algorithme des k-means. Plus précisément, l'objectif de ce travail est de donner des bornes en probabilité sur l'écart entre la distorsion de ce quantificateur et la plus petite distorsion atteignable parmi les quantificateurs, à nombre d'images k fixé, décrivant l'influence des divers paramètres de ce problème: support de la distribution de probabilité à quantifier, nombre d'images k, dimension de l'espace vectoriel sous-jacent, et taille de l'échantillon servant à construire le quantificateur k-mean. Après un bref rappel des résultats précédents, cette étude établit l'équivalence des diverses conditions existantes pour établir une vitesse de convergence rapide en la taille de l'échantillon de l'écart de distorsion considéré, dans le cas des distributions à densité, à une condition technique ressemblant aux conditions requises en classification supervisée pour l'obtention de vitesses rapides de convergence. Il est ensuite prouvé que, sous cette condition technique, une vitesse de convergence de l'ordre de 1/n pouvait être atteinte en espérance. Ensuite, cette thèse énonce une condition facilement interprétable, appelée condition de marge, suffisante à la satisfaction de la condition technique établie précédemment. Plusieurs exemples classiques de distributions satisfaisant cette condition sont donnés, tels les mélanges gaussiens. Si cette condition de marge se trouve satisfaite, une description précise de la dépendance de l'écart de distorsion étudié peut être donné via une borne en espérance: la taille de l'échantillon intervient via un facteur 1/n, le nombre d'images k intervient via différentes quantités géométriques associées à la distribution à quantifier, et de manière étonnante la dimension de l'espace sous-jacent semble ne jouer aucun rôle. Ce dernier point nous a permis d'étendre nos résultats au cadre des espaces de Hilbert, propice à la quantification des courbes. Néanmoins, la quantification effective en grande dimension nécessite souvent en pratique une étape de réduction du nombre de variables, ce qui nous a conduit dans un deuxième temps à étudier une procédure de sélection de variables associée à la quantification. Plus précisément, nous nous sommes intéressés à une procédure de type Lasso adaptée au cadre de la quantification vectorielle, où la pénalité Lasso porte sur l'ensemble des points images du quantificateur, dans le but d'obtenir des points images parcimonieux. Si la condition de marge introduite précédemment est satisfaite, plusieurs garanties théoriques sont établies concernant le quantificateur issu d'une telle procédure, appelé quantificateur Lasso k-means, à savoir que les points images de ce quantificateur sont proches des points images d'un quantificateur naturellement parcimonieux, réalisant un compromis entre erreur en quantification et taille du support des points images, et que l'écart en distorsion du quantificateur Lasso k-means est de l'ordre de 1/n^(1/2) en la taille de l'échantillon. Par ailleurs la dépendance de cette distorsion en les différents autres paramètres de ce problème est donnée explicitement. Ces prédictions théoriques sont illustrées par des simulations numériques confirmant globalement les propriétés attendues d'un tel quantificateur parcimonieux, mais soulignant néanmoins quelques inconvénients liés à l'implémentation effective de cette procédure
The distortion of the quantizer built from a n-sample of a probability distribution over a vector space with the famous k-means algorithm is firstly studied in this thesis report. To be more precise, this report aims to give oracle inequalities on the difference between the distortion of the k-means quantizer and the minimum distortion achievable by a k-point quantizer, where the influence of the natural parameters of the quantization issue should be precisely described. For instance, some natural parameters are the distribution support, the size k of the quantizer set of images, the dimension of the underlying Euclidean space, and the sample size n. After a brief summary of the previous works on this topic, an equivalence between the conditions previously stated for the excess distortion to decrease fast with respect to the sample size and a technical condition is stated, in the continuous density case. Interestingly, this condition looks like a technical condition required in statistical learning to achieve fast rates of convergence. Then, it is proved that the excess distortion achieves a fast convergence rate of 1/n in expectation, provided that this technical condition is satisfied. Next, a so-called margin condition is introduced, which is easier to understand, and it is established that this margin condition implies the technical condition mentioned above. Some examples of distributions satisfying this margin condition are exposed, such as the Gaussian mixtures, which are classical distributions in the clustering framework. Then, provided that this margin condition is satisfied, an oracle inequality on the excess distortion of the k-means quantizer is given. This convergence result shows that the excess distortion decreases with a rate 1/n and depends on natural geometric properties of the probability distribution with respect to the size of the set of images k. Suprisingly the dimension of the underlying Euclidean space seems to play no role in the convergence rate of the distortion. Following the latter point, the results are directly extended to the case where the underlying space is a Hilbert space, which is the adapted framework when dealing with curve quantization. However, high-dimensional quantization often needs in practical a dimension reduction step, before proceeding to a quantization algorithm. This motivates the following study of a variable selection procedure adapted to the quantization issue. To be more precise, a Lasso type procedure adapted to the quantization framework is studied. The Lasso type penalty applies to the set of image points of the quantizer, in order to obtain sparse image points. The outcome of this procedure is called the Lasso k-means quantizer, and some theoretical results on this quantizer are established, under the margin condition introduced above. First it is proved that the image points of such a quantizer are close to the image points of a sparse quantizer, achieving a kind of tradeoff between excess distortion and size of the support of image points. Then an oracle inequality on the excess distortion of the Lasso k-means quantizer is given, providing a convergence rate of 1/n^(1/2) in expectation. Moreover, the dependency of this convergence rate on different other parameters is precisely described. These theoretical predictions are illustrated with numerical experimentations, showing that the Lasso k-means procedure mainly behaves as expected. However, the numerical experimentations also shed light on some drawbacks concerning the practical implementation of such an algorithm
9

Makdeche, Saïd. "Grandes déviations de la k (n)ième statistique d'ordre cas de la loi uniforme /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376155454.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Montagu, Thierry. "Transformées stabilisatrices de variance pour l'estimation de l'intensité du Shot Noise : application à l'estimation du flux neutronique." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Shot Noise est un processus aléatoire qui permet notamment de modéliser fidèlement le nombre d'occurrences des interactions entre particules physiques et leurs détecteurs associés ; ce nombre définit l'intensité du processus. Lorsque l'intensité est faible, il est possible d'individualiser les interactions dont les temps d'arrivées sont modélisés par le processus de Poisson. Dans le cas contraire, les évènements ne sont plus discernables (ils « s'empilent »), mais le théorème de Campbell - qui établit les cumulants du ShotNoise - permet de remonter à l'intensité du processus. L'estimation des deux premiers cumulants est réalisée grâce à la moyenne et à la variance empiriques de trajectoires du Shot Noise. Il est remarqué que les variances de ces estimateurs et des estimateurs de l'intensité du Shot Noise correspondants dépendent de leurs moyennes respectives. Cette propriété d'hétéroscédasticité étant observée en théorie et en pratique, une approche par transformées stabilisatrices de variance est proposée via la Delta method. Celles-ci sont calculées ainsi que leur biais, et les transformées inverses associées. Leurs propriétés asymptotiques sont vérifiées par des simulations numériques. Dans le cadre applicatif des mesures de flux neutroniques qui reposent sur l'estimation des deux premiers cumulants du Shot Noise et qui ont également pour finalité l'estimation de l'intensité du processus aléatoire, des transformées stabilisatrices de variance sont spécifiquement établies ainsi que leurs biais et leurs transformées inverses. Elles sont finalement combinées à un filtre de Kalman adaptatif pour débruiter le flux neutronique. Des simulations sont menées pour caractériser les performances de filtrage. Le débruitage de signaux réels est également réalisé
The Shot noise is a random process that can be used to accurately model the numberof occurrences of physical particles impinging their associated detectors ; this numberis referred to as the intensity of the process. When this number is small, it is possible to individualize the recorded events whose arrival times are modelled thanks to the Poisson process. In the opposite case, the events are no longer discernible (they ”pile up”), but Campbell's theorem - which establishes the cumulants of the Shot Noise - still allows to estimate the intensity of the process. The estimation of the two first cumulants is classically achevied with the empirical mean and the empirical variance. It is noted in this work, that the variances of theses two estimators and their corresponding estimators of the Shot Noise intensity are functions of their respective means. This property ofheter heteroscedasticity being observed both in theory and practice, an approach by variance stabilizing transforms is proposed using the "Delta method". These are calculated as well as their bias, and their corresponding inverse transforms. Their asymptotic properties are verified thanks to numerical simulations. In the applicative context of neutron flux measurements, which rely on the estimation of the first two cumulants of the Shot Noise and which also have the purpose of estimating the intensity of this random process,variance stabilizing transforms are specifically established as well as their biases and their inverse transforms. They are finally combined with an adaptive Kalman filter in order to denoise the neutron flux measurements. Numerical simulations are carried out to assessfiltering performances. Denoising of real signals is also performed
11

Giguelay, Jade. "Estimation des moindres carrés d'une densité discrète sous contrainte de k-monotonie et bornes de risque. Application à l'estimation du nombre d'espèces dans une population." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS248/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est une contribution au domaine de l'estimation non-paramétrique sous contrainte de forme. Les fonctions sont discrètes et la forme considérée, appelée k-monotonie, k désignant un entier supérieur à 2, est une généralisation de la convexité. L'entier k constitue un indicateur du degré de creux d'une fonction convexe. Le manuscrit est structuré en trois parties en plus de l'introduction, de la conclusion et d'une annexe.Introduction :L'introduction comprend trois chapitres. Le premier présente un état de l'art de l'estimation de densité sous contrainte de forme. Le second est une synthèse des résultats obtenus au cours de la thèse, disponible en français et en anglais. Enfin, le Chapitre 3 regroupe quelques notations et des résultats mathématiques utilisés au cours du manuscrit.Partie I : Estimation d'une densité discrète sous contrainte de k-monotonieDeux estimateurs des moindres carrés d'une distribution discrète p* sous contrainte de k-monotonie sont proposés. Leur caractérisation est basée sur la décomposition en base de spline des suites k-monotones, et sur les propriétés de leurs primitives. Les propriétés statistiques de ces estimateurs sont étudiées. Leur qualité d'estimation, en particulier, est appréciée. Elle est mesurée en terme d'erreur quadratique, les deux estimateurs convergent à la vitesse paramétrique. Un algorithme dérivé de l'Algorithme de Réduction de Support est implémenté et disponible au R-package pkmon. Une étude sur jeux de données simulés illustre les propriétés de ces estimateurs. Ce travail a été publié dans Electronic Journal of Statistics (Giguelay, 2017).Partie II : Calculs de bornes de risqueDans le premier chapitre de la Partie II, le risque quadratique de l'estimateur des moindres carrés introduit précédemment est borné. Cette borne est adaptative en le sens qu'elle dépend d'un compromis entre la distance de p* à la frontière de l'ensemble des densités k-monotones à support fini, et de la complexité (en terme de décomposition dans la base de spline) des densités appartenant à cet ensemble qui sont suffisamment proches de p*. La méthode est basée sur une formulation variationnelle du risque proposée par Chatterjee (2014) etgénéralisée au cadre de l'estimation de densité. Par la suite, les entropies à crochet des espaces fonctionnels correspondants sont calculées afin de contrôler le supremum de processus empiriques impliqué dans l'erreur quadratique. L'optimalité de la borne de risque est ensuite discutée au regard des résultats obtenus dans le cas continu et dans le cadre de la régression.Dans le second chapitre de la Partie II, des résultats complémentaires sur les entropies à crochet pour les espaces de fonctions k-monotones sont donnés.Partie III : Estimation du nombre d'espèces dans une population et tests de k-monotonieLa dernière partie traite du problème de l'estimation du nombre d'espèces dans une population. La modélisation choisie est celle d'une distribution d'abondance commune à toutes les espèces et définie comme un mélange. La méthode proposée repose sur l'hypothèse de k-monotonie d'abondance. Cette hypothèse permet de rendre le problème de l'estimation du nombre d'espèces identifiable. Deux approches sont proposées. La première est basée sur l'estimateur des moindres carrés sous contrainte de k-monotonie, tandis que la seconde est basée sur l'estimateur empirique. Les deux estimateurs sont comparés sur une étude sur données simulées. L'estimation du nombre d'espèces étant fortement dépendante du degré de k-monotonie choisi dans le modèle, trois procédures de tests multiples sont ensuite proposées pour inférer le degré k directement sur la base des observations. Le niveau et la puissance de ces procédures sont calculés, puis évalués au moyen d'une étude sur jeux de données simulés et la méthode est appliquée sur des jeux de données réels issus de la littérature
This thesis belongs to the field of nonparametric density estimation under shape constraint. The densities are discrete and the form is k-monotonicity, k>1, which is a generalization of convexity. The integer k is an indicator for the hollow's degree of a convex function. This thesis is composed of three parts, an introduction, a conclusion and an appendix.Introduction :The introduction is structured in three chapters. First Chapter is a state of the art of the topic of density estimation under shape constraint. The second chapter of the introduction is a synthesis of the thesis, available in French and in English. Finally Chapter 3 is a short chapter which summarizes the notations and the classical mathematical results used in the manuscript.Part I : Estimation of a discrete distribution under k-monotonicityconstraintTwo least-square estimators of a discrete distribution p* under constraint of k-monotonicity are proposed. Their characterisation is based on the decomposition on a spline basis of k-monotone sequences, and on the properties of their primitives. Their statistical properties are studied, and in particular their quality of estimation is measured in terms of the quadratic error. They are proved to converge at the parametric rate. An algorithm derived from the support reduction algorithm is implemented in the R-package pkmon. A simulation study illustrates the properties of the estimators. This piece of works, which constitutes Part I of the manuscript, has been published in ElectronicJournal of Statistics (Giguelay, 2017).Part II : Calculation of risks boundsIn the first chapter of Part II, a methodology for calculating riskbounds of the least-square estimator is given. These bounds are adaptive in that they depend on a compromise between the distance of p* on the frontier of the set of k-monotone densities with finite support, and the complexity (linked to the spline decomposition) of densities belonging to this set that are closed to p*. The methodology based on the variational formula of the risk proposed by Chatterjee (2014) is generalized to the framework of discrete k-monotone densities. Then the bracketting entropies of the relevant functionnal space are calculating, leading to control the empirical process involved in the quadratic risk. Optimality of the risk bound is discussed in comparaison with the results previously obtained in the continuous case and for the gaussian regression framework. In the second chapter of Part II, several results concerningbracketting entropies of spaces of k-monotone sequences are presented.Part III : Estimating the number of species in a population and tests of k-monotonicityThe last part deals with the problem of estimating the number ofpresent species in a given area at a given time, based on theabundances of species that have been observed. A definition of ak-monotone abundance distribution is proposed. It allows to relatethe probability of observing zero species to the truncated abundancedistribution. Two approaches are proposed. The first one is based on the Least-Squares estimator under constraint of k-monotonicity, the second oneis based on the empirical distribution. Both estimators are comparedusing a simulation study. Because the estimator of the number ofspecies depends on the value of the degree of monotonicity k, we proposea procedure for choosing this parameter, based on nested testingprocedures. The asymptotic levels and power of the testing procedureare calculated, and the behaviour of the method in practical cases isassessed on the basis of a simulation study
12

Belhadj, Zied. "Apport de la polarisation multifréquence pour la classification en télédétection radar." Nantes, 1995. http://www.theses.fr/1995NANT2056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but du travail réalisé dans cette thèse est l'étude des informations acquises par un capteur polarimétrique multifréquence. L'objectif vise d'une part la modélisation statistique d'échos radar et d'autre part la discrimination et la classification polarimétrique multifréquence. La distinction fine entre les couverts à divers stades de croissance illustre l'apport spécifique de la polarimétrie multifréquence. Des images multipolarisées, multifréquences acquises en 1989 par le système ROS de la Nasa/JPL concernant la forêt des Landes ont été exploitées dans laquelle les diverses sections différent par leurs paramètres intrinsèques (biomasse, hauteur, âge, densité,). La modélisation polarimétrique d'échos radar consiste à trouver les lois de distribution décrivant au mieux les amplitudes absolues, les rapports d'amplitude et les différences de phase. La distribution K s'est révélée être la mieux adaptée pour décrire les amplitudes absolues des données aussi bien monovues que multivues. La méthode dite Bootstrap minimisant, voire éliminant l'interdépendance des données, a été introduite afin d'améliorer la confiance du test d'adéquation confirmant le choix de la distribution K. Un nouveau discriminateur fréquentiel, issu de la distribution k et étroitement lié à l'hétérogénéité du couvert, a été développé. La non symétrie azimutale, classiquement négligée, a été mise en évidence par une représentation équi-amplitude des signatures polarimétriques. L'algorithme de classification de Van Zyl et celui de décomposition de Freeman ont été exploités pour classifier les terrains. De plus, un algorithme de classification de pixels vérifiant la non symétrie azimutale a été développé permettant d'introduire une nouvelle classe la non symétrie azimutale pour une interprétation plus réaliste des terrains. Une extension des algorithmes de Novak concernant la réduction du speckle, a été proposée et appliquée sur des données réelles et sur des données synthétisées, en utilisant la propriété de non symétrie azimutale. Le travail de thèse réalisé représente une contribution non seulement à l'évaluation de l'apport de la polarimétrie multifréquence, mais aussi au développement des méthodes d'analyse et de traitement de données en télédétection radar.
13

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles." Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
14

Caron, Alexandre. "Mesure de la dynamique des polluants gazeux en air intérieur : évaluation des performances de systèmes multi-capteurs." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10161/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La qualité de l’air intérieur constitue de nos jours un enjeu sanitaire majeur ainsi qu’une problématique de recherche enplein essor. De nombreux polluants sont présents à l’intérieur des bâtiments. Ils sont directement émis par des sourcesintérieures telles que les matériaux de constructions, le mobilier, l’activité des occupants ou proviennent de l’airextérieur. La politique de réduction de la consommation énergétique entraîne la construction de bâtiments de plus enplus hermétiques, réduisant ainsi l’élimination des polluants par transfert vers l’extérieur. Les techniques d’analysesclassiques ne sont pas adaptées à la surveillance continue de ces environnements. Il s’agit généralement d’analyseursencombrants, coûteux, bruyants et qui nécessitent du personnel qualifié. Une alternative à ces méthodes est récemmentapparue sous la forme de capteurs miniatures. Dans ce travail de thèse, les performances et limitations de plusieurscapteurs miniatures, tels que des capteurs à infrarouge, électrochimiques, à photoionisation ou semi-conducteurs pourla mesure du CO2, du CO, des NOx, d’O3 et des COV, ont été évaluées en laboratoire et lors de campagnes de mesurespour le suivi des principaux polluants de l’air intérieur. Bien que la réponse de ces capteurs soit fortement corrélée avecla concentration mesurée par des analyseurs de référence, le manque de sélectivité ne permet pas toujours une analysequantitative. L’apprentissage bayésien naïf ainsi que le clustering par bisecting k-means ont permis d’interpréter lessignaux mesurés par les capteurs et de mettre en évidence des événements typiques de pollution, traduisant ladynamique de la qualité de l’air intérieur
Nowadays, indoor air quality is a major health issue and a growing research challenge. Many pollutants are presentinside buildings. They are directly emitted by indoor sources such as building materials, furniture, occupants and theiractivities or transferred from outdoors. Due to an increasing concern for energy saving, recent buildings are much moreairtight, reducing the pollutants elimination to the outside. Standard analyzers are not suitable for monitoring the airquality indoors. These techniques are usually bulky, expensive, noisy and require skilled people. An alternative to theseconventional methods recently appeared under the form of microsensors. In this work, the performances and limitationsof different type of sensors such as infrared sensors, electrochemical sensors, photoionisation detectors orsemiconductive sensors for the measurement of CO2, CO, NOx, O3 or VOC, were evaluated in laboratory conditions andalso during measurement campaigns in order to monitor the major indoor air pollutants. Although the response of thesesensors is highly correlated with the concentration measured by reference instruments, their lack of selectivity does notalways allow a quantitative analysis. Naive Bayes classifier and bisecting k-means clustering were used to help analyzethe output of the sensors, and allow identifying typical pollution events, reflecting the dynamics of the indoor air quality
15

Ben, Arab Taher. "Contribution des familles exponentielles en traitement des images." Phd thesis, Université du Littoral Côte d'Opale, 2014. http://tel.archives-ouvertes.fr/tel-01019983.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à l'évaluation des familles exponentielles pour les problèmes de la modélisation des bruits et de la segmentation des images couleurs. Dans un premier temps, nous avons développé une nouvelle caractérisation des familles exponentielles naturelles infiniment divisible basée sur la fonction trace de la matrice de variance covariance associée. Au niveau application, cette nouvelle caractérisation a permis de détecter la nature de la loi d'un bruit additif associé à un signal où à une image couleur. Dans un deuxième temps, nous avons proposé un nouveau modèle statistique paramétrique mulltivarié basé sur la loi de Riesz. La loi de ce nouveau modèle est appelée loi de la diagonale modifiée de Riesz. Ensuite, nous avons généralisé ce modèle au cas de mélange fini de lois. Enfin, nous avons introduit un algorithme de segmentation statistique d'image ouleur, à travers l'intégration de la méthode des centres mobiles (K-means) au niveau de l'initialisation pour une meilleure définition des classes de l'image et l'algorithme EM pour l'estimation des différents paramètres de chaque classe qui suit la loi de la diagonale modifiée de la loi de Riesz.
16

Sainton, Grégory. "Spectroscopie des supernovæ à grand décalage vers le rouge." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00106153.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a permis de comparer les caractéristiques spectrales des supernovæ de type Ia en fonction du
décalage vers le rouge ("évolution"). Dans le cadre des collaborations Supernova Cosmology Project (SCP) et SuperNova Legacy Survey (SNLS), dont l'objectif scientique commun est l'étude de l'énergie noire à l'aide de supernovæ de type Ia à grand décalage vers le rouge, une part importante du travail de thèse est consacrée à la réduction des données spectrales,
étape nécessaire pour obtenir le spectre physiquement exploitable à partir de données observées. La réduction de l'ensemble des spectres SCP issus du spectrographe à échellettes Keck-ESI a permis d'obtenir des supernovæ de type Ia parmi les plus lointaines jamais observées. Dans l'expérience SNLS, l'identication spectroscopique est essentiellement réalisée avec le spectrographe longue fente FORS1 monté au foyer du VLT UT1. Pour le SNLS, il s'agit de réduire et d'identier une dizaine de spectres par lunaison pendant 5 ans. Dans le cadre de cette thèse, un logiciel d'identication en temps réel de SNIa a été developpé, il permet d'établir le type, le décalage vers le rouge et l'âge du candidat quasi automatiquement. Il évalue aussi la contamination
de la galaxie hôte (dont on peut aussi estimer la morphologie) dans le spectre. Le logiciel a été testé sur un échantillon de spectres analysés en détail.
Par ailleurs, pour certains d'entre eux, on a mesuré la vitesse du CaH&K (3945.12Å) dans la photosphère puis
on a comparé les résultats avec les mêmes mesures réalisées sur un lot de spectres proches. Ce résultat a permis de conrmer l'hypothèse de standardité des SNIa à grand décalage vers le rouge. C'est une hypothèse fondamentale pour mesurer les paramètres cosmologiques avec les supernovæ de type Ia.
17

Coron, Jean-Luc. "Quelques exemples de jeux à champ moyen." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La théorie des jeux à champ moyen fut introduite en 2006 par Jean-Michel Lasry et Pierre-Louis Lions. Elle permet l'étude de la théorie des jeux dans certaines configurations où le nombre de joueurs est trop grand pour espérer une résolution pratique. Nous étudions la théorie des jeux à champ moyen sur les graphes en nous appuyant sur les travaux d'Olivier Guéant que nous étendrons à des formes plus générales d'Hilbertien. Nous étudierons aussi les liens qui existent entres les K-moyennes et les jeux à champ moyen ce qui permettra en principe de proposer de nouveaux algorithmes pour les K-moyennes grâce aux techniques de résolution numérique propres aux jeux à champ moyen. Enfin nous étudierons un jeu à champ moyen à savoir le problème "d'heure de début d'une réunion" en l'étendant à des situations où les agents peuvent choisir entre deux réunions. Nous étudierons de manière analytique et numérique l'existence et la multiplicité des solutions de ce problème
The mean field game theory was introduced in 2006 by Jean-Michel Lasry and Pierre-Louis Lions. It allows us to study the game theory in some situations where the number of players is too high to be able to be solved in practice. We will study the mean field game theory on graphs by learning from the studies of Oliver Guéant which we will extend to more generalized forms of Hilbertian. We will also study the links between the K-means and the mean field game theory. In principle, this will offer us new algorithms for solving the K-means thanks to the techniques of numerical resolutions of the mean field games. Findly, we will study a mean field game called the "starting time of a meeting". We will extend it to situations where the players can choose between two meetings. We will study analytically and numerically the existence and multiplicity of the solutions to this problem
18

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène
We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
19

Ibrahim, Jean-Paul. "Grandes déviations pour des modèles de percolation dirigée & pour des matrices aléatoires." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1250/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant cette thèse, on a étudié essentiellement deux modèles aléatoires qui, malgré leur différence apparente, cachent un intérêt commun et mettent en évidence des phénomènes mathématiques et physiques communs. Le modèle de percolation de dernier passage dans le plan (last-passage directed percolation model ou LPP) est un modèle de percolation orientée bidimensionnel. Il fait partie d'une vaste liste de modèles de croissance et sert à modéliser des phénomènes dans des domaines variés. Dans la première partie de cette thèse, on s'est intéressé essentiellement aux propriétés de grandes déviations de ce modèle. On a également examiné les fluctuations transversales du même modèle. Toute cette étude a été faite dans le cadre d'un rectangle fin. Parallèlement aux travaux sur les modèles de croissance, on a étudié un autre sujet qui émerge également du monde de la Physique: celui des matrices aléatoires. Ces matrices se divisent en deux catégories principales introduites à une vingtaine d'années d'intervalle: les matrices de covariance empirique et les matrices de Wigner. L'étendue du champ d'application de ces matrices est tellement vaste qu'on peut les rencontrer presque dans toutes les filières scientifiques: probabilité, combinatoire, physique atomique, statistique multivariée, télécommunication, théorie des représentations, etc. Parmi les objets mathématiques les plus étudiés, on cite la loi jointe des valeurs propres, la densité spectrale, l'espacement des valeurs propres, la plus grande valeur propre et les vecteurs propres associés. En mécanique quantique par exemple, les valeurs propres d'une matrice du GUE modélisent les niveaux d'énergie d'un électron autour du noyau tandis que le vecteur propre associé à la plus grande valeur propre d'une matrice de covariance empirique indique la direction ou l'axe principal en analyse de données. Comme pour le modèle de percolation dirigée, on s'est intéressé en particulier aux propriétés de grandes déviations de la valeur propre maximale d'un certain type de matrices de covariance empirique. Cette étude pourrait avoir des applications en statistique et notamment en analyse en composantes principales. Malgré l'apparente différence, la théorie des matrices aléatoires est strictement liée au modèle de percolation dirigée. Leurs structures de corrélation se ressemblent dans certains cas d'une manière troublante. La convergence des fluctuations, dans les deux cas, vers la célèbre loi de Tracy-Widom en est un bon exemple
In this thesis, we study two random models: last-passage percolation and random matrices. Despite the difference between these two models, they highlight common interests and phenomena. The last-passage percolation or LPP is a growth model in the lattice plane. It is part of a wide list of growth models and is used to model phenomena in various fields: tandem queues in series, totally asymmetric simple exclusion process, etc. In the first part of this thesis, we focused on LPP's large deviation properties. Later in this part, we studied the LPP's transversal fluctuations. Alongside the work on growth models, we studied another subject that also emerges in the world of physics: random matrices. These matrices are divided into two main categories introduced twenty years apart: the sample covariance matrices and Wigner's matrices. The extent of the scope of these matrices is so large we can meet almost all the sciences: probability, combinatorics, atomic physics, multivariate statistics, telecommunications, representation theory, etc. Among the most studied mathematical objects, we list the joint distribution of eigenvalues, the empirical spectral density, the eigenvalues spacing, the largest eigenvalue and eigenvectors. For example, in quantum mechanics, the eigenvalues of a GUE matrix model the energy levels of an electron around the nucleus while the eigenvector associated to the largest eigenvalue of a sample covariance matrix indicates the direction or the main axis in data analysis. As with the LPP, we studied large deviation properties of the largest eigenvalue for some sample covariance matrices. This study could have applications in statistics. Despite the apparent difference, the random matrix theory is strictly related to directed percolation model. Correlation structures are similar in some cases. The convergence of fluctuations to the famous Tracy-Widom law in both cases illustrates the connection between these two models
20

Petitjean, Julien. "Contributions au traitement spatio-temporel fondé sur un modèle autorégressif vectoriel des interférences pour améliorer la détection de petites cibles lentes dans un environnement de fouillis hétérogène Gaussien et non Gaussien." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14157/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite du traitement adaptatif spatio-temporel dans le domaine radar. Pour augmenter les performances en détection, cette approche consiste à maximiser le rapport entre la puissance de la cible et celle des interférences, à savoir le bruit thermique et le fouillis. De nombreuses variantes de cet algorithme existent, une d’entre elles est fondée sur une modélisation autorégressive vectorielle des interférences. Sa principale difficulté réside dans l’estimation des matrices autorégressives à partir des données d’entrainement ; ce point constitue l’axe de notre travail de recherche. En particulier, notre contribution porte sur deux aspects. D’une part, dans le cas où l’on suppose que le bruit thermique est négligeable devant le fouillis non gaussien, les matrices autorégressives sont estimées en utilisant la méthode du point fixe. Ainsi, l’algorithme est robuste à la distribution non gaussienne du fouillis.D’autre part, nous proposons une nouvelle modélisation des interférences différenciant le bruit thermique et le fouillis : le fouillis est considéré comme un processus autorégressif vectoriel, gaussien et perturbé par le bruit blanc thermique. Ainsi, de nouvelles techniques d'estimation des matrices autorégressives sont proposées. La première est une estimation aveugle par bloc reposant sur la technique à erreurs dans les variables. Ainsi, l’estimation des matrices autorégressives reste robuste pour un rapport faible entre la puissance de la cible et celle du fouillis (< 5 dB). Ensuite, des méthodes récursives ont été développées. Elles sont fondées sur des approches du type Kalman : filtrage de Kalman étendu et filtrage par sigma point (UKF et CDKF), ainsi que sur le filtre H∞.Une étude comparative sur des données synthétiques et réelles, avec un fouillis gaussien ou non gaussien, est menée pour révéler la pertinence des différents estimateurs en terme de probabilité de détection
This dissertation deals with space-time adaptive processing in the radar’s field. To improve the detection’s performances, this approach consists in maximizing the ratio between the target’s power and the interference’s one, i.e. the thermal noise and the clutter. Several variants of its algorithm exist, one of them is based on multichannel autoregressive modelling of interferences. Its main problem lies in the estimation of autoregressive matrices with training data and guides our research’s work. Especially, our contribution is twofold.On the one hand, when thermal noise is considered negligible, autoregressive matrices are estimated with fixed point method. Thus, the algorithm is robust against non-gaussian clutter.On the other hand, a new modelling of interferences is proposed. The clutter and thermal noise are separated : the clutter is considered as a multichannel autoregressive process which is Gaussian and disturbed by the white thermal noise. Thus, new estimation’s algorithms are developed. The first one is a blind estimation based on errors in variable methods. Then, recursive approaches are proposed and used extension of Kalman filter : the extended Kalman filter and the Sigma Point Kalman filter (UKF and CDKF), and the H∞ filter. A comparative study on synthetic and real data with Gausian and non Gaussian clutter is carried out to show the relevance of the different algorithms about detection’s probability
21

Schroeder, Pascal. "Performance guaranteeing algorithms for solving online decision problems in financial systems." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse contient quelques problèmes de décision financière en ligne et des solutions. Les problèmes sont formulés comme des problèmes en ligne (OP) et des algorithmes en ligne (OA) sont créés pour résoudre. Comme il peut y avoir plusieurs OAs pour le même OP, il doit y avoir un critère afin de pouvoir faire des indications au sujet de la qualité d’un OA. Dans cette thèse ces critères sont le ratio compétitif (c), la différence compétitive (cd) et la performance numérique. Un OA qui a un c ou cd plus bas qu’un autre est à préférer. Un OA qui possède le c le plus petit est appelé optimal. Nous considérons les OPs suivants. Le problème de conversion en ligne (OCP), le problème de sélection de portefeuille en ligne (PSP) et le problème de gestion de trésorerie en ligne (CMP). Après le premier chapitre d’introduction, les OPs, la notation et l’état des arts dans le champ des OPs sont présentés. Dans le troisième chapitre on résoudre trois variantes des OCP avec des prix interconnectés. En Chapitre 4 on travaille encore sur le problème de recherche de série chronologie avec des prix interconnectés et on construit des nouveaux OAs. À la fin de ce chapitre l’OA k-DIV est créé pour le problème de recherche générale des k maximums. k-DIV est aussi optimal. En Chapitre 5 on résout le PSP avec des prix interconnectés. L’OA créé s’appelle OPIP et est optimal. En utilisant les idées de OPIP, on construit un OA pour le problème d’échange bidirectionnel qui s’appelle OCIP et qui est optimal. Avec OPIP, on construit un OA optimal pour le problème de recherche bidirectionnel (OA BUND) sachant les valeurs de θ_1 et θ_2. Pour des valeurs inconnues, on construit l’OA RUN qui est aussi optimal. Les chapitres 6 et 7 traitent sur le CMP. Dans les deux chapitres il y a des tests numériques afin de pouvoir comparer la performance des OAs nouveaux avec celle des OAs déjà établies. En Chapitre 6 on construit des OAs optimaux ; en chapitre 7 on construit des OA qui minimisent cd. L’OA BCSID résoudre le CMP avec des demandes interconnectées ; LOA aBBCSID résoudre le problème lorsqu’ on connaît les valeurs de θ_1,θ_2,m et M. L’OA n’est pas optimal. En Chapitre 7 on résout le CMP par rapport à m et M en minimisant cd (OA MRBD). Ensuite on construit l’OA HMRID et l’OA MRID pour des demandes interconnectées. MRID minimise cd et HMRID est un bon compromis entre la performance numérique et la minimisation de cd
This thesis contains several online financial decision problems and their solutions. The problems are formulated as online problems (OP) and online algorithms (OA) are created to solve them. Due to the fact that there can be various OA for the same OP, there must be some criteria with which one can make statements about the quality of an OA. In this thesis these criteria are the competitive ratio (c), the competitive difference (cd) and the numerical performance. An OA with a lower c is preferable to another one with a higher value. An OA that has the lowest c is called optimal. We consider the following OPS. The online conversion problem (OCP), the online portfolio selection problem (PSP) and the cash management problem (CMP). After the introductory chapter, the OPs, the notation and the state of the art in the field of OPs is presented. In the third chapter, three variants of the OCP with interrelated prices are solved. In the fourth chapter the time series search with interrelated prices is revisited and new algorithms are created. At the end of the chapter, the optimal OA k-DIV for the general k-max search with interrelated prices is developed. In Chapter 5 the PSP with interrelated prices is solved. The created OA OPIP is optimal. Using the idea of OPIP, an optimal OA for the two-way trading is created (OCIP). Having OCIP, an optimal OA for the bi-directional search knowing the values of θ_1 and θ_2 is created (BUND). For unknown θ_1 and θ_2, the optimal OA RUNis created. The chapter ends with an empirical (for OPIP) and experimental (for OCIP, BUND and RUN) testing. Chapters 6 and 7 deal with the CMP. In both of them, a numerical testing is done in order to compare the numerical performance of the new OAs to the one of the already established ones. In Chapter 6 an optimal OA is constructed; in Chapter 7, OAs are designed which minimize cd. The OA BCSID solves the CMP with interrelated demands to optimality. The OA aBBCSID solves the CMP when the values of de θ_1, θ_2,m and M are known; however, this OA is not optimal. In Chapter 7 the CMP is solved, knowing m and M and minimizing cd (OA MRBD). For the interrelated demands, a heuristic OA (HMRID) and a cd-minimizing OA (MRID) is presented. HMRID is good compromise between the numerical performance and the minimization of cd. The thesis concludes with a short discussion about shortcomings of the considered OPs and the created OAs. Then some remarks about future research possibilities in this field are given
22

Fournier, Alexandre. "Détection et classification de changements sur des scènes urbaines en télédétection." Phd thesis, 2008. http://tel.archives-ouvertes.fr/tel-00463593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde le problème de la détection de changements sur des images de scènes urbaines en télédétection. Les expériences ont été menées sur des couples d'images satellitaires panchromatiques haute résolution (< 1 m). À travers ce thème général, plusieurs problématiques, correspondant aux divers niveaux d'une chaîne de traitement, sont abordés, depuis la création d'un masque de changements jusqu'au raisonnement à un niveau objet. Dans ce manuscrit, nous abordons premièrement le problème de la détermination d'un masque de changements. Après avoir étudié les limites d'un algorithme de détection de changements, fondé sur l'analyse en composantes principales, nous proposons un algorithme tirant parti de l'invariance des lignes de niveau, fondé sur un modèle d'illumination et des hypothèses sur la régularité de la scène. Par la suite, nous abordons la classification des zones détectées comme changées au cours de l'étape précédente. D'abord, nous nous fondons uniquement sur les radiométries des couples de pixels. Enfin, nous étudions l'intérêt d'une composante géométrique dans la classification. Plus précisément, nous appliquons un algorithme d'approximation polygonale sur les zones connexes issues de la classification précédentes, puis nous classifions les formes obtenues compte tenu des orientations des côtés des polygones obtenus.
23

Vincent, Pascal. "Modèles à noyaux à structure locale." Thèse, 2003. http://hdl.handle.net/1866/14543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Sanka, Norbert Bertrand. "Étude comparative et choix optimal du nombre de classes en classification et réseaux de neurones : application en science des données." Thèse, 2021. http://depot-e.uqtr.ca/id/eprint/9662/1/eprint9662.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Gaudet, Sylvain. "L'évaluation en laboratoire et sur le terrain vers la prévention des blessures à l’épaule chez les athlètes de sports aquatiques et d’armée du bras." Thèse, 2018. http://hdl.handle.net/1866/21805.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography