Academic literature on the topic 'Rééchantillonage'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Rééchantillonage.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Rééchantillonage"

1

Morin, V., J.-F. Morin, M.-P. Moineau, and J.-P. Codet. "Détermination par rééchantillonnage bootstrap de la statistique des médianes utiles au calcul de risque de trisomie 21 à l'aide des marqueurs sériques maternels." Immuno-analyse & Biologie Spécialisée 14, no. 6 (November 1999): 401–6. http://dx.doi.org/10.1016/s0923-2532(00)88668-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dufour, Jean-Marie, Abdeljelil Farhat, and Lynda Khalaf. "Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression*." Articles 80, no. 2-3 (October 24, 2005): 501–22. http://dx.doi.org/10.7202/011397ar.

Full text
Abstract:
RésuméCet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les loisplatikurtiques– et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
APA, Harvard, Vancouver, ISO, and other styles
3

Bienek, AS, ME Gee, RP Nolan, J. Kaczorowski, NR Campbell, C. Bancej, F. Gwadry-Sridhar, C. Robitaille, RL Walker, and S. Dai. "Méthodologie de l'Enquête sur les personnes ayant une maladie chronique au Canada – composante de l'hypertension de 2009." Maladies chroniques et blessures au Canada 33, no. 4 (September 2013): 301–11. http://dx.doi.org/10.24095/hpcdp.33.4.08f.

Full text
Abstract:
Introduction L'Enquête sur les personnes ayant une maladie chronique au Canada – composante de l'hypertension (EPMCC-H) est une enquête téléphonique transversale de 20 minutes sur le diagnostic et la prise en charge de l'hypertension. L'échantillon de l'EPMCC-H, sélectionné à partir des répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2008, était composé de Canadiens (de 20 ans et plus) des dix provinces ayant déclaré avoir reçu un diagnostic d'hypertension. Méthodologie Le questionnaire a été élaboré au moyen de la technique Delphi et a fait l'objet d'un examen externe ainsi que de tests qualitatifs. Statistique Canada s'est chargé des stratégies d'échantillonnage, du recrutement, de la collecte et du traitement des données. Les proportions ont été pondérées afin de représenter la population canadienne et les intervalles de confiance (IC) à 95 % ont été calculés au moyen de la méthode de rééchantillonnage bootstrap. Résultats Si on le compare à la population de l'ESCC ayant déclaré souffrir d'hypertension, l'échantillon de l'EPMCC-H (n = 6 142) est légèrement plus jeune (âge moyen des répondants à l'EPMCC-H : 61,2 ans, IC à 95 % : 60,8 à 61,6; âge moyen des répondants à l'ESCC : 62,2 ans, IC à 95 % : 61,8 à 62,5), comporte plus de détenteurs d'un diplôme d'études postsecondaires (EPMCC-H : 52,0 %, IC à 95 % : 49,7 % à 54,2 %; ESCC : 47,5 %, IC à 95 % : 46,1 % à 48,9 %) et moins de répondants prenant un médicament pour l'hypertension (EPMCC-H : 82,5 %, IC à 95 % : 80,9 % à 84,1 %; ESCC : 88,6 %, IC à 95 % : 87,7 % à 89,6 %). Conclusion Dans l'ensemble, l'EPMCC-H de 2009 est représentatif de sa population source et fournit des données nouvelles et exhaustives sur le diagnostic et la prise en charge de l'hypertension. L'enquête a été adaptée à d'autres maladies chroniques – diabète, asthme/maladie pulmonaire obstructive chronique et troubles neurologiques. Le questionnaire est accessible à partir du site Web de Statistique Canada; des résultats descriptifs ont été publiés par l'Agence de la santé publique du Canada.
APA, Harvard, Vancouver, ISO, and other styles
4

BURN, DONALD H. "The use of resampling for estimating confidence intervals for single site and pooled frequency analysis / Utilisation d'un rééchantillonnage pour l'estimation des intervalles de confiance lors d'analyses fréquentielles mono et multi-site." Hydrological Sciences Journal 48, no. 1 (February 2003): 25–38. http://dx.doi.org/10.1623/hysj.48.1.25.43485.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Pahwa, P., C. P. Karunanayake, J. McCrosky, and L. Thorpe. "Tendances longitudinales en matière de santé mentale parmi les groupes ethniques au Canada." Maladies chroniques et blessures au Canada 32, no. 3 (June 2012): 182–95. http://dx.doi.org/10.24095/hpcdp.32.3.07f.

Full text
Abstract:
Introduction L’immigration continue à transformer la composition ethnique de la population canadienne. Nous avons mené une enquête afin de déterminer si les tendances longitudinales en matière de détresse psychologique variaient entre sept groupes culturels et ethniques, et si la détresse psychologique au sein d’un même groupe ethnique variait en fonction de facteurs démographiques (statut d’immigrant, sexe, âge, état matrimonial, lieu et durée de la résidence), socioéconomiques (éducation, revenu), de soutien social et de style de vie. Methods La population étudiée était composée de 14 713 répondants de 15 ans et plus issus des six premiers cycles de l’Enquête nationale sur la santé de la population (ENSP); 20 % ont déclaré au moment du cycle 1 (1994-1995) être immigrants. Le modèle de régression logistique a été ajusté par la modification de la méthode de quasi-vraisemblance multivariée, et des estimations de variance robustes ont été obtenues à l’aide de méthodes de rééchantillonnage à répliques équilibrées. Results En nous fondant sur le modèle multivarié et les données autodéclarées, nous avons observé que les femmes étaient plus susceptibles que les hommes de déclarer une détresse psychologique modérée/élevée; il en était de même des répondants les plus jeunes par rapport aux répondants les plus vieux, des répondants célibataires par rapport aux répondants en couple, des citadins par rapport aux ruraux, des répondants moins éduqués par rapport aux répondants plus éduqués, des fumeurs – anciens et actuels – par rapport aux non-fumeurs et des personnes vivant dans un ménage fumeur par rapport à celles vivant dans un ménage non-fumeur. Le statut d’immigrant, le sexe, le score pour la participation à la vie sociale et l’éducation avaient une incidence sur la relation entre l’ethnicité et la détresse psychologique. Nous avons constaté – ce qui étaye d’autres études – une relation en U inversé entre la durée du séjour et la détresse psychologique : les répondants qui vivaient au Canada depuis moins de 2 ans étaient moins susceptibles de déclarer une détresse psychologique modérée/élevée, tandis que les répondants qui vivaient au Canada depuis 2 à 20 ans étaient beaucoup plus susceptibles de déclarer une détresse psychologique modérée/élevée que ceux y résidant depuis plus de 20 ans. Conclusion Il faut élaborer des programmes de santé mentale spécifiques en fonction de l’ethnicité et ciblant les personnes avec un niveau de scolarité peu élevé et participant peu à la vie sociale. En outre, les politiques et les programmes devraient cibler les femmes, les plus jeunes (groupe des 15 à 24 ans) et les personnes relevant des catégories de faible adéquation du revenu.
APA, Harvard, Vancouver, ISO, and other styles
6

Jeldres, Claudio, Héloïse Cardinal, Alain Duclos, Shahrokh F. Shariat, Nazareno Suardi, Umberto Capitanio, Marie-Josèe Hébert, and Pierre I. Karakiewicz. "Prediction of delayed graft function after renal transplantation." Canadian Urological Association Journal 3, no. 5 (May 1, 2013): 377. http://dx.doi.org/10.5489/cuaj.1147.

Full text
Abstract:
Introduction: Delayed graft function (DGF), defined as the needfor dialysis during the first week after renal transplantation, is animportant adverse clinical outcome. A previous model relied on16 variables to quantify the risk of DGF, thereby undermining itsclinical usefulness. We explored the possibility of developing asimpler, equally accurate and more user-friendly paradigm forrenal transplant recipients from deceased donors.Methods: Logistic regression analyses addressed the occurrenceof DGF in 532 renal transplant recipients from deceased donors.Predictors consisted of recipient age, gender, race, weight, numberof HLA-A, HLA-B and HLA-DR mismatches, maximum andlast titre of panel reactive antibodies, donor age and cold ischemiatime. Accuracy was quantified with the area under the curve. Twohundred bootstrap resamples were used for internal validation.Results: Delayed graft function occurred in 103 patients (19.4%).Recipient weight (p < 0.001), panel of reactive antibodies (p < 0.001),donor age (p < 0.001), cold ischemia time (p = 0.005) and HLADRmismatches (p = 0.05) represented independent predictors.The multivariable nomogram relying on 6 predictors was 74.3%accurate in predicting the probability of DGF.Conclusion: Our simple and user-friendly model requires 6 variablesand is at least equally accurate (74%) to the previous nomogram(71%). We demonstrate that DGF can be accurately predictedin different populations with this new model.Introduction : La reprise retardée de la fonction (RRF) du greffon,définie comme le besoin de recourir à la dialyse pendant la premièresemaine suivant une transplantation rénale, est une issueclinique indésirable importante. Un modèle proposé antérieurementreposait sur 16 variables pour quantifier le risque de RRF,diminuant ainsi son utilité clinique. Nous avons exploré la possibilitéd’élaborer un paradigme simplifié et plus convivial tout enétant tout aussi précis pour les receveurs de greffons rénauxprovenant de donneurs décédés.Méthodologie : À l’aide d’analyses de régression logistique, nousavons étudié la survenue de la RRF du greffon chez 532 receveursde greffons rénaux provenant de donneurs décédés. Les facteursde prédiction comprenaient l’âge, le sexe, la race et le poids dureceveur et le nombre de non-concordance des phénotypes HLAA,HLA-B et HLA-DR, le titre maximal et le dernier titre d’anticorpsréactifs, l’âge du donneur et la période d’ischémie froide. L’exactitudea été quantifiée par la mesure de la surface sous la courbe. Deuxcents rééchantillonnages par auto-amorçage ont servi à la validationinterne.Résultats : Une reprise retardée de la fonction a été observée chez103 patients (19,4 %). Le poids du receveur (p < 0,001), les anticorpsréactifs (p < 0,001), l’âge du donneur (p < 0,001), la périoded’ischémie froide (p = 0,005) et la non-concordance des phénotypesHLA-DR (p = 0,05) constituaient des facteurs de prédictionindépendants. Le nomogramme multivarié reposant sur 6 facteursde prédiction a permis de prédire avec une exactitude de 74,3 %la probabilité de RRF.Conclusion : Notre modèle simple et convivial nécessite 6 va riableset est au moins tout aussi exact (74 %) que le nomogramme antérieur(71 %). La RRF peut être prévue avec exactitude dans différentespopulations à l’aide ce nouveau modèle, tel que nous en faisonsla démonstration.
APA, Harvard, Vancouver, ISO, and other styles
7

Drogue, Gilles, and Didier François. "Détection du changement régional par rééchantillonnage de séries chronologiques : application aux précipitations dans l’espace rhéno-mosan." Climatologie, Volume 10 (2013). http://dx.doi.org/10.4267/climatologie.152.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Rééchantillonage"

1

Arlot, Sylvain. "Rééchantillonnage et Sélection de modèles." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00198803.

Full text
Abstract:
Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique et de la théorie statistique de l'apprentissage. Son objet est la compréhension fine de certaines méthodes de rééchantillonnage ou de sélection de modèles, du point de vue non-asymptotique.

La majeure partie de ce travail de thèse consiste dans la calibration précise de méthodes de sélection de modèles optimales en pratique, pour le problème de la prédiction. Nous étudions la validation croisée V-fold (très couramment utilisée, mais mal comprise en théorie, notamment pour ce qui est de choisir V) et plusieurs méthodes de pénalisation. Nous proposons des méthodes de calibration précise de pénalités, aussi bien pour ce qui est de leur forme générale que des constantes multiplicatives. L'utilisation du rééchantillonnage permet de résoudre des problèmes difficiles, notamment celui de la régression avec un niveau de bruit variable. Nous validons théoriquement ces méthodes du point de vue non-asymptotique, en prouvant des inégalités oracle et des propriétés d'adaptation. Ces résultats reposent entre autres sur des inégalités de concentration.

Un second problème que nous abordons est celui des régions de confiance et des tests multiples, lorsque l'on dispose d'observations de grande dimension, présentant des corrélations générales et inconnues. L'utilisation de méthodes de rééchantillonnage permet de s'affranchir du fléau de la dimension, et d'"apprendre" ces corrélations. Nous proposons principalement deux méthodes, et prouvons pour chacune un contrôle non-asymptotique de leur niveau.
APA, Harvard, Vancouver, ISO, and other styles
2

Lesquoy-de, Turckheim Élisabeth. "Tests non paramétriques et rééchantillonnage : le modèle de Cox périodique." Paris 11, 1987. http://www.theses.fr/1987PA112474.

Full text
Abstract:
Cette thèse comporte trois parties. La première est l'étude de deux tests non­ paramétriques définis par rééchantillonnage. Leur puissance est estimée de façon fortement consistante, par simulation. L'un permet de comparer deux distributions dans un dispositif en blocs 2 x 2, l'autre de tester l'indépendance de deux temps de survie censurés. La deuxième partie adapte le modèle de régression de Cox à un processus ponctuel dont l'intensité de base est périodique et les régresseurs des processus prévisibles, ergodiques et
The first part proposes two nonparametric test defined by a simulation. One compares two distributions functions in a two-by-two black design, the other tests the independence of two censored survival times. The second part is an adaptation of Cox's regression model to a counting process having a periodic underlying intensity and predictable processes as regressors. These processes are ergodic and ϕ-mixing. The underlying intensity is estimated using either an empirical distribution-type estimate or a histogram-type estimate. These two estimates are asymptotically Gaussian and equivalent, as well as the associated regression parameters estimates. Finally, the model is applied to the analysis of a feeding pattern. The third part is a. Modelling of the kinetics of drought rhizogenesis of Sinapis alba
APA, Harvard, Vancouver, ISO, and other styles
3

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Full text
Abstract:
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
APA, Harvard, Vancouver, ISO, and other styles
4

Ahmed, Mohamed Hafez Soliman. "Statistiques réduisant le biais et modèles de rééchantillonnage complet et incomplet." Paris 6, 1986. http://www.theses.fr/1986PA066442.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ferfache, Anouar Abdeldjaoued. "Les M-estimateurs semiparamétriques et leurs applications pour les problèmes de ruptures." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2643.

Full text
Abstract:
Dans cette thèse, nous nous intéressons principalement aux modèles semiparamétriques qui ont reçu beaucoup d’intérêt par leur excellente utilité scientifique et leur complexité théorique intrigante. Dans la première partie, nous considérons le problème de l’estimation d’un paramètre dans un espace θ de Banach, en maximisant une fonction critère qui dépend d’un paramètre de nuisance inconnu h, éventuellement de dimension infinie. Nous montrons que le bootstrap m out of n, dans ce cadre général, est consistant sous des conditions similaires à celles requises pour la convergence faible des M-estimateurs non-réguliers. Dans ce cadre délicat, des techniques avancées seront nécessaires pour faire face aux estimateurs du paramètre de nuisance à l’intérieur des fonctions critères non régulières. Nous étudions ensuite le bootstrap échangeable pour les Z-estimateurs. L’ingrédient principal est l’utilisation originale d’une identité différentielle qui s’applique lorsque la fonction critère aléatoire est linéaire en termes de mesure empirique. Un grand nombre de schémas de rééchantillonnage bootstrap apparaissent comme des cas particuliers de notre étude. Des exemples d’applications de la littérature sont présentes pour illustrer la généralité et l’utilité de nos résultats. La deuxième partie est consacrée aux modèles statistiques semiparamétriques de ruptures multiples. L’objectif principal de cette partie est d’étudier les propriétés asymptotiques des M-estimateurs semiparamétriques avec des fonctions critères non lisses des paramètres d’un modèle de rupture multiples pour une classe générale de modèles dans lesquels la forme de la distribution peut changer de segment en segment et dans lesquels, éventuellement, il y a des paramètres communs à tous les segments. La consistance des M-estimateurs semi-paramétriques des points de rupture est établie et la vitesse de convergence est déterminée. La normalité asymptotique des M-estimateurs semiparamétriques des paramètres est établie sous des conditions générales. Nous étendons enfin notre étude au cadre des données censurées. Nous étudions les performances de nos méthodologies pour des petits échantillons à travers des études de simulations
In this dissertation we are concerned with semiparametric models. These models have success and impact in mathematical statistics due to their excellent scientific utility and intriguing theoretical complexity. In the first part of the thesis, we consider the problem of the estimation of a parameter θ, in Banach spaces, maximizing some criterion function which depends on an unknown nuisance parameter h, possibly infinite-dimensional. We show that the m out of n bootstrap, in a general setting, is weakly consistent under conditions similar to those required for weak convergence of the non smooth M-estimators. In this framework, delicate mathematical derivations will be required to cope with estimators of the nuisance parameters inside non-smooth criterion functions. We then investigate an exchangeable weighted bootstrap for function-valued estimators defined as a zero point of a function-valued random criterion function. The main ingredient is the use of a differential identity that applies when the random criterion function is linear in terms of the empirical measure. A large number of bootstrap resampling schemes emerge as special cases of our settings. Examples of applications from the literature are given to illustrate the generality and the usefulness of our results. The second part of the thesis is devoted to the statistical models with multiple change-points. The main purpose of this part is to investigate the asymptotic properties of semiparametric M-estimators with non-smooth criterion functions of the parameters of multiple change-points model for a general class of models in which the form of the distribution can change from segment to segment and in which, possibly, there are parameters that are common to all segments. Consistency of the semiparametric M-estimators of the change-points is established and the rate of convergence is determined. The asymptotic normality of the semiparametric M-estimators of the parameters of the within-segment distributions is established under quite general conditions. We finally extend our study to the censored data framework. We investigate the performance of our methodologies for small samples through simulation studies
APA, Harvard, Vancouver, ISO, and other styles
6

Goldfarb, Bernard. "Etude structurelle des séries temporelles : les moyens de l'analyse spectrale." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Full text
Abstract:
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
APA, Harvard, Vancouver, ISO, and other styles
7

Zinger, Svitlana. "Interpolation et rééchantillonnage de données spatiales et application à la cartographie urbaine et à la détermination du fond cosmique primordial." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000944.

Full text
Abstract:
Dans cette thèse nous étudions des méthodes d'interpolation de données irrégulièrement distribuées dans l'espace. Nous considérons le problème du rééchantillonnage de mesures altimétriques de données obtenues sur une grille irrégulière par laser aéroporté. Ce type de données est irrégulièrement distribué et un rééchantillonnage sur une grille régulière est nécessaire pour la génération de modèles numériques d'élévation (MNE). Quelques méthodes bien connues sont considérées: interpolation linéaire à partir de triangulations, interpolation au plus proche voisin à partir de triangulations et krigeage. Nous proposons une approche par minimisation d'énergie qui permet d'éviter les inconvénients inhérents à ces méthodes. Cette approche impose un modèle de surface correspondant aux zones urbaines. La fonction d'énergie est adaptée pour les données irrégulièrement distribuées. Les méthodes sont testées sur deux ensembles des points 3D irrégulièrement distribués acquis par un capteur laser sur Bruxelles et sur Amiens. Nous avons appliqué ces méthodes aussi pour la détermination du fond cosmique primordial.
APA, Harvard, Vancouver, ISO, and other styles
8

Celisse, Alain. "Model selection via cross-validation in density estimation, regression, and change-points detection." Paris 11, 2008. http://www.theses.fr/2008PA112221.

Full text
Abstract:
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement du leave-p-out. Ces algorithmes sont encore mal compris d'un point de vue théorique, notamment non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal p de l'ensemble test. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-p-out n'est habituellement pas applicable en pratique (grande complexité algorithmique). Pourtant, nous parvenons à obtenir des formules closes de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs. Nous envisageons le problème de la sélection de modèles par validation-croisée sous deux aspects : l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de p entièrement fondé sur les données, et la sélection de modèle. Ce second aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité du leave-p-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité en estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Nous proposons une procédure entièrement fondée sur le rééchantillonnage permettant de traiter le cas de données hétéroscédastiques avec une complexité algorithmique raisonnable
In this thesis, we aim at studying a family of resampling algorithms, referred to as cross-validation, and especially of one of them named leave-p-out. Extensively used in practice, these algorithms remain poorly understood, especially in the non-asymptotic framework. Our analysis of the leave-p-out algorithm is carried out both in density estimation and regression. Its main concern is to better understand cross-validation with respect to the cardinality p of the test set. From a general point of view, cross-validation is devoted to estimate the risk of an estimator. Usually due to a prohibitive computational complexity, the leave-p-out is intractable. However, we turned it into a feasible procedure thanks to closed-form formulas for the risk estimator of a wide range of widespread estimators. Besides, the question of model selection via cross-validation is considered through two approaches. The first one relies on the optimal estimation of the risk in terms of a bias-variance tradeoff, which results in a density estimation procedure based on a fully data-driven choice of p. This procedure is successfully applied to the multiple testing problem. The second approach is related to the interpretation of cross-validation in terms of penalized criterion. The quality of the leave-p-out procedure is theoretically assessed through oracle inequalities as well as an adaptivity result in the density estimation setup. The change-points detection problem is another concern of this work. It is explored through an extensive simulation study based on theoretical considerations. From this, we propose a fully resampling-based procedure, which enables to deal with the hard problem of heteroscedasticity, while keeping a reasonable computational complexity
APA, Harvard, Vancouver, ISO, and other styles
9

François, Jérémie. "Fusion de connaissances expérimentales et expertes : une approche évolutive du diagnostic." Compiègne, 2000. http://www.theses.fr/2000COMP1308.

Full text
Abstract:
On sait que le diagnostic de l'état d'un objet ou d'un système bénéficie de l'utilisation simultanée de plusieurs sources d'informations, expérimentales (données) ou expertes (a priori). Or cette fusion est difficile de par la diversité, l'imprécision et l'incer¬titude des informations, Le modèle des croyances transférables, une reformulation axio¬matisée de la théorie de l'évidence, permet dans ce contexte une représentation, une combinaison et une décision rigoureuses sur la base d'informations incertaines et impré¬cises. Comme il est souvent plus facile et rapide d'obtenir un historique de diagnostics qu'une expertise du domaine, le système proposé s'articule autour d'un clas¬sifieur simple, basé sur des exemples et une mesure de similarité entre cas. Le pouvoir de représentation par prototypes est malgré tout assez faible et dépend de la quantité et de la qualité des données disponibles. On introduit et étudie ici une méthode de ré-échantillonnage et d'agrégation pour réduire les conséquences du bruit de mesure et des ensembles d'apprentissage de petite taille. On montre que la classification est amé¬liorée et l'excès de confiance du système initial corrigé. Le recueil d'information supplémentaire pour la classification de l'objet à diagnostiquer est dirigé par les faiblesses ou les incomplétudes du système. Une pre¬mière application en reconnaissance optique de caractères illustre la pertinence de la démarche avec l'ajoût d'une règle simple, spécialisée sur un sous-ensemble de carac¬tères seulement. Le ré-échantillonnage améliore la représentation issue de la base non paramétrique du système et permet alors pleinement aux informations supplémentaires de mieux conclure sur les cas auparavant mal diagnostiqués. Le système est enfin validé avec le diagnostic de fonctionnement d'un réacteur de biodégradation de taille se mi-industrielle. L'étude des transitions d'états du système confirme de plus le grand intérêt de l'approche pour le diagnostic dynamique.
APA, Harvard, Vancouver, ISO, and other styles
10

Notin, Alban. "Evaluation à moindre coût de la fiabilité des structures sollicitées en fatigue." Compiègne, 2010. http://www.theses.fr/2010COMP1877.

Full text
Abstract:
Cette thèse s'insère dans le contexte général de l'estimation de la fiabilité des structures sollicitées en fatigue. Dans le cas d'applications industrielles, chaque évaluation est potentiellement coûteuse en temps de calcul et en espace de stockage. De ce fait, seul un nombre fini de calcul peut être réalisé. Cette évaluation à moindre coût de la fiabilité des structures sollicitées en fatigue suppose de travailler sur l'algorithme de fiabilité mais aussi d'accélérer les calculs mécaniques. Cette double problématique constitue la base de ce travail de thèse. Pour la partie fiabilité, la méthode MRCP (Méthode de Rééchantillonnage du Chaos Polynomial) a été développée. Son objectif est de proposer une troncature adaptative du métamodèle par chaos polynomial en estimant l'erreur par les intervalles de confiance sur l'indice de fiabilité. Les résultats montrent que l'approche est efficace pour des états-limites suffisamment réguliers. Une alternative à l'emploi de métamodèles consiste à accélérer les calculs mécaniques. C'est l'objectif de l'approche SLDL T (décomposition LDL T Stochastique) qui se base sur une modification de la décomposition de Cholesky en supposant que les variations de la matrice L sont négligeables dans le domaine de variation des variables aléatoires. L'aléa est alors reporté sur la matrice diagonale D, optimisée de façon à minimiser l'erreur sur la matrice de rigidité. Les résultats montrent un gain en temps de calcul de l'ordre de 180 sur un exemple industriel dont le comportement mécanique est linéaire élastique et le module d'Young modélisé par un champ stochastique
This thesis take place in the context of the estimation of the reliability of structures under fatigue loading. In the case of industrial applications, each model evaluation may be time and storage consuming. This way, only a few number of evaluations can be performed. This efficient estimation of the reliability of structures under fatigue loading implies to word on the reliability algorithm as well as the speeding up of mechanical computations. In this double issue lies the settlement of this thesis. Concerning the reliability part, the RPCM (Resampling Polynomial Chaos Method) method has been developed. The goal is to build the polynomial chaos basis in an adaptative way such that the troncature error is taken into account. This erros is estimad through confidence intervals on the reliability index. Numerical results show a very good behaviour of the proposed method in the case of smooth limit-state functions. However, metamodels are not the only way to speed up computations. Another strategy consists in accelerate the mechanical computations by approximating the closest calculi controlling the error. This is the idea of the SLDL T (Stochastic LDL T decomposition) approach which is based on a slight modification of the Cholesky decomposition assuming that the fluctuations of the lower matrix L are negligible in the domain of variation of the random inputs. The randonmess is put on the digonal matrix D, which is optimized such a way to minimize the error on the stiffness matrix. In the case of a linear elastic mechanical behaviour with the Young’s modulus modeled by a random field, results show a gain factor round to 180
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Rééchantillonage"

1

Good, Phillip I. Resampling methods: A practical guide to data analysis. Boston: Birkhäuser, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Resampling methods: A practical guide to data analysis. 3rd ed. Boston: Birkhäuser, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Resampling methods: A practical guide to data analysis. 2nd ed. Boston: Birkhäuser, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Good, Phillip I. Introduction to Statistics Through Resampling Methods and Microsoft Office Excel. New York: John Wiley & Sons, Ltd., 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Good, Phillip I. Resampling Methods: A Practical Guide to Data Analysis. 3rd ed. Birkhäuser Boston, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Introduction to Statistics Through Resampling Methods and Microsoft Office Excel. Wiley-Interscience, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Good, Phillip I. Introduction to Statistics Through Resampling Methods and Microsoft Office Excel. Wiley & Sons, Incorporated, John, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Introduction to Statistics Through Resampling Methods and Microsoft Office Excel ®. Wiley-Interscience, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Rééchantillonage"

1

VAN KREVELD, Lucas, and Onno BOXMA. "Mélange de paramètres dans les files d’attente à serveur infini." In Théorie des files d’attente 1, 121–65. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch5.

Full text
Abstract:
Nous considérons deux modèles de files d’attente à serveur infini avec un processus d’arrivée de Poisson. La particularité est que l’intensité de l’arrivée est rééchantillonnée à des intervalles de temps exponentiels (modèle 1) ou à l’époque du changement d’état du processus de Markov (modèle 2). Nos principaux résultats incluent les instants en régime transitoire et en régime permanent du nombre de clients.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography