Littérature scientifique sur le sujet « Méthodes de rééchantillonage »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Méthodes de rééchantillonage ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Méthodes de rééchantillonage"

1

Dufour, Jean-Marie, Abdeljelil Farhat et Lynda Khalaf. « Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression* ». Articles 80, no 2-3 (24 octobre 2005) : 501–22. http://dx.doi.org/10.7202/011397ar.

Texte intégral
Résumé :
RésuméCet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les loisplatikurtiques– et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Pahwa, P., C. P. Karunanayake, J. McCrosky et L. Thorpe. « Tendances longitudinales en matière de santé mentale parmi les groupes ethniques au Canada ». Maladies chroniques et blessures au Canada 32, no 3 (juin 2012) : 182–95. http://dx.doi.org/10.24095/hpcdp.32.3.07f.

Texte intégral
Résumé :
Introduction L’immigration continue à transformer la composition ethnique de la population canadienne. Nous avons mené une enquête afin de déterminer si les tendances longitudinales en matière de détresse psychologique variaient entre sept groupes culturels et ethniques, et si la détresse psychologique au sein d’un même groupe ethnique variait en fonction de facteurs démographiques (statut d’immigrant, sexe, âge, état matrimonial, lieu et durée de la résidence), socioéconomiques (éducation, revenu), de soutien social et de style de vie. Methods La population étudiée était composée de 14 713 répondants de 15 ans et plus issus des six premiers cycles de l’Enquête nationale sur la santé de la population (ENSP); 20 % ont déclaré au moment du cycle 1 (1994-1995) être immigrants. Le modèle de régression logistique a été ajusté par la modification de la méthode de quasi-vraisemblance multivariée, et des estimations de variance robustes ont été obtenues à l’aide de méthodes de rééchantillonnage à répliques équilibrées. Results En nous fondant sur le modèle multivarié et les données autodéclarées, nous avons observé que les femmes étaient plus susceptibles que les hommes de déclarer une détresse psychologique modérée/élevée; il en était de même des répondants les plus jeunes par rapport aux répondants les plus vieux, des répondants célibataires par rapport aux répondants en couple, des citadins par rapport aux ruraux, des répondants moins éduqués par rapport aux répondants plus éduqués, des fumeurs – anciens et actuels – par rapport aux non-fumeurs et des personnes vivant dans un ménage fumeur par rapport à celles vivant dans un ménage non-fumeur. Le statut d’immigrant, le sexe, le score pour la participation à la vie sociale et l’éducation avaient une incidence sur la relation entre l’ethnicité et la détresse psychologique. Nous avons constaté – ce qui étaye d’autres études – une relation en U inversé entre la durée du séjour et la détresse psychologique : les répondants qui vivaient au Canada depuis moins de 2 ans étaient moins susceptibles de déclarer une détresse psychologique modérée/élevée, tandis que les répondants qui vivaient au Canada depuis 2 à 20 ans étaient beaucoup plus susceptibles de déclarer une détresse psychologique modérée/élevée que ceux y résidant depuis plus de 20 ans. Conclusion Il faut élaborer des programmes de santé mentale spécifiques en fonction de l’ethnicité et ciblant les personnes avec un niveau de scolarité peu élevé et participant peu à la vie sociale. En outre, les politiques et les programmes devraient cibler les femmes, les plus jeunes (groupe des 15 à 24 ans) et les personnes relevant des catégories de faible adéquation du revenu.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bienek, AS, ME Gee, RP Nolan, J. Kaczorowski, NR Campbell, C. Bancej, F. Gwadry-Sridhar, C. Robitaille, RL Walker et S. Dai. « Méthodologie de l'Enquête sur les personnes ayant une maladie chronique au Canada – composante de l'hypertension de 2009 ». Maladies chroniques et blessures au Canada 33, no 4 (septembre 2013) : 301–11. http://dx.doi.org/10.24095/hpcdp.33.4.08f.

Texte intégral
Résumé :
Introduction L'Enquête sur les personnes ayant une maladie chronique au Canada – composante de l'hypertension (EPMCC-H) est une enquête téléphonique transversale de 20 minutes sur le diagnostic et la prise en charge de l'hypertension. L'échantillon de l'EPMCC-H, sélectionné à partir des répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2008, était composé de Canadiens (de 20 ans et plus) des dix provinces ayant déclaré avoir reçu un diagnostic d'hypertension. Méthodologie Le questionnaire a été élaboré au moyen de la technique Delphi et a fait l'objet d'un examen externe ainsi que de tests qualitatifs. Statistique Canada s'est chargé des stratégies d'échantillonnage, du recrutement, de la collecte et du traitement des données. Les proportions ont été pondérées afin de représenter la population canadienne et les intervalles de confiance (IC) à 95 % ont été calculés au moyen de la méthode de rééchantillonnage bootstrap. Résultats Si on le compare à la population de l'ESCC ayant déclaré souffrir d'hypertension, l'échantillon de l'EPMCC-H (n = 6 142) est légèrement plus jeune (âge moyen des répondants à l'EPMCC-H : 61,2 ans, IC à 95 % : 60,8 à 61,6; âge moyen des répondants à l'ESCC : 62,2 ans, IC à 95 % : 61,8 à 62,5), comporte plus de détenteurs d'un diplôme d'études postsecondaires (EPMCC-H : 52,0 %, IC à 95 % : 49,7 % à 54,2 %; ESCC : 47,5 %, IC à 95 % : 46,1 % à 48,9 %) et moins de répondants prenant un médicament pour l'hypertension (EPMCC-H : 82,5 %, IC à 95 % : 80,9 % à 84,1 %; ESCC : 88,6 %, IC à 95 % : 87,7 % à 89,6 %). Conclusion Dans l'ensemble, l'EPMCC-H de 2009 est représentatif de sa population source et fournit des données nouvelles et exhaustives sur le diagnostic et la prise en charge de l'hypertension. L'enquête a été adaptée à d'autres maladies chroniques – diabète, asthme/maladie pulmonaire obstructive chronique et troubles neurologiques. Le questionnaire est accessible à partir du site Web de Statistique Canada; des résultats descriptifs ont été publiés par l'Agence de la santé publique du Canada.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Méthodes de rééchantillonage"

1

Bourredjem, Abderrahmane. « Contribution à l'inférence sur le coefficient de corrélation intraclasse de concordance dans les études de fiabilité inter-juges ». Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCK078.

Texte intégral
Résumé :
La fiabilité d'une mesure fait référence à sa reproductibilité lorsqu'elle est répétée de manière aléatoire sur le même sujet et constitue une propriété métrologique clé pour toutes les mesures. Le coefficient de corrélation intra-classe de concordance à deux voies (ICCa) est un paramètre statistique utilisé pour quantifier la fiabilité inter-observateurs des mesures continues (ou qualitatives ordinales). Il constitue un indice de fiabilité central recommandé par les agences réglementaires. Néanmoins, ses estimateurs sont biaisés et de nombreuses solutions ont été essayées pour améliorer son intervalle de confiance (IC). Les travaux les plus récents indiquent qu'aucune méthode ne fonctionne bien en cas de non-normalité des données, difficilement détectable à partir des observations, et lorsque le nombre de sujets ou d'évaluateurs est limité, ce qui est plutôt le cas en pratique. De plus, aucune transformation de stabilisation de la variance (VST) ni aucun test de comparaison statistique ne sont disponibles pour l'ICCa. L'objectif de cette thèse est donc de contribuer au développement de méthodes palliant le manque d'outils inférentiels pour l'ICCa. Dans un premier temps, nous proposons de nouvelles méthodes asymptotiques pour l'intervalle de confiance de l'ICCa, le calcul de la taille de l'échantillon des sujets et des évaluateurs, et un test de rapport de vraisemblance pour comparer deux ICCa. Ensuite, dans un deuxième travail, nous développons trois VST, améliorant les propriétés de l'intervalle de confiance pour les études de fiabilité inter-évaluateurs de taille modérée, et la synthèse de plusieurs ICCa dans le contexte de méta-analyses. Enfin, dans un troisième travail, des méthodes de rééchantillonnage spécifiques sont proposées, en combinaison avec la meilleure VST, pour améliorer les performances de l'intervalle de confiance de l'ICCa sans l'hypothèse de normalité et avec de petits échantillons. Il s'agit d'un travail de méthodologie biostatistique, avec des évaluations par simulation des méthodes introduites, et des applications à plusieurs jeux de données réelles issues d'études de fiabilité inter-évaluateurs et de méta-analyses
Measurement's reliability refers to its reproducibility when it is randomly repeated on the same subject and is a key metrological property for each measurement validation. The two-way intra-class correlation coefficient of agreement (ICCa) is a statistical parameter used to quantify the inter-rater reliability of continuous (or ordinal qualitative) measurements. It constitute a central reliability index recommended by the regulatory agencies. Nevertheless, its estimators are biased and a lot of solutions have been tried facing to its confidence interval (CI) problem. The latest works indicate that no method works well with a hard-to-detect violation of normality and when the number of subjects OR raters is limited, which is rather the case in practice. Furthermore, no variance stabilizing transformation (VST) nor statistical comparative test are available for the ICCa. The aim of this thesis is therefore to contribute to the development of methods that remedy the lack of the inferential tools for the ICCa. At a first step, we propose new asymptotic methods for the ICCa confidence interval, the calculation of the needed sample size of subjects and raters, and a likelihood ratio test to compare two ICCa. Then, in a second work, we develop three VSTs, improving the properties of the confidence interval for inter-rater reliability studies of moderate sample size, and the synthesis of several ICCa in the context of meta-analyses. Finally, in a third work, dedicated resampling methods are proposed, in combination with the best VST, to improve the ICCa confidence interval performances in case of non-normality with small sample size. It is above all a work of biostatistical methodology, with simulation evaluations of the introduced methods, and applications to several real data sets from inter-rater reliability studies and meta-analyses
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ahmed, Mohamed Hafez Soliman. « Statistiques réduisant le biais et modèles de rééchantillonnage complet et incomplet ». Paris 6, 1986. http://www.theses.fr/1986PA066442.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Lerasle, Matthieu. « Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité ». Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Texte intégral
Résumé :
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bernard, Francis. « Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes ». Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Texte intégral
Résumé :
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Blanc, Philippe. « Développement de méthodes pour la détection de changement ». Phd thesis, École Nationale Supérieure des Mines de Paris, 1999. http://tel.archives-ouvertes.fr/tel-00477115.

Texte intégral
Résumé :
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lamberti, Roland. « Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007/document.

Texte intégral
Résumé :
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
7

Lusinchi, Dominic. « La statistique appliquée : usage et signification dans les sciences sociales : essai de recherche méthodologique basé sur des études de cas aux États-Unis ». Paris 8, 2008. http://octaviana.fr/document/137824084#?c=0&m=0&s=0&cv=0.

Texte intégral
Résumé :
Cette thèse est un essai de réflexion sur l'outillage statistique à la disposition des chercheurs dans les sciences sociales. Les derniers trente ans ont connu un développement considérable des techniques statistiques, tant numériques que graphiques, dû en grande partie à l'application de la statistique à un nombre croissant de disciplines, ainsi qu'à l'apparition, depuis à peine vingt ans, de l'ordinateur personnel. En s'appuyant sur des données réelles empruntées à diverses enquêtes ou études menées aux États-Unis, cette recherche s'efforce de montrer comment des problèmes importants soulevés dans ces travaux peuvent être résolus en faisant appel aux techniques classiques, et aussi, nouvelles de la statistique appliquée. La statistique appliquée n'est pas simplement une collection de techniques, c'est avant tout une façon de réfléchir aux données empiriques, c'est-à-dire, notamment, un moyen d'identifier les effets réels et de les séparer de ce qui est insignifiant. Cette thèse se propose de démontrer que le rôle de la statistique appliquée consiste à révéler le sens des données et à évaluer leurs limites. L'application de la statistique aux données de l'expérience constitue souvent une anticipation et un vecteur du raisonnement sociologique
This study examines the statistical tools available to social science practitioners. The last 30 years have witnessed a considerable development in statistical techniques, both numerical and graphical. This is in large part a result of the application of statistical methods to an ever increasing number of fields, and also of the emergence, barely 20 years ago, of the personal computer. Using real data from surveys and other studies conducted in the U. S. , this research will show how important problems that arise in empirical data can be tackled by relying on well-known as well as relatively recent statistical techniques. Applied statistics is not simply an array of procedures; it is above all a way of thinking about empirical data, specifically how to discriminate between real and chance effects. This research endeavors to show that the role of applied statistics is to reveal both the meaning of the data and their limitations. The application of statistical methods to empirical data can often act as a catalyst to stimulate the sociological imagination
Styles APA, Harvard, Vancouver, ISO, etc.
8

Notin, Alban. « Evaluation à moindre coût de la fiabilité des structures sollicitées en fatigue ». Compiègne, 2010. http://www.theses.fr/2010COMP1877.

Texte intégral
Résumé :
Cette thèse s'insère dans le contexte général de l'estimation de la fiabilité des structures sollicitées en fatigue. Dans le cas d'applications industrielles, chaque évaluation est potentiellement coûteuse en temps de calcul et en espace de stockage. De ce fait, seul un nombre fini de calcul peut être réalisé. Cette évaluation à moindre coût de la fiabilité des structures sollicitées en fatigue suppose de travailler sur l'algorithme de fiabilité mais aussi d'accélérer les calculs mécaniques. Cette double problématique constitue la base de ce travail de thèse. Pour la partie fiabilité, la méthode MRCP (Méthode de Rééchantillonnage du Chaos Polynomial) a été développée. Son objectif est de proposer une troncature adaptative du métamodèle par chaos polynomial en estimant l'erreur par les intervalles de confiance sur l'indice de fiabilité. Les résultats montrent que l'approche est efficace pour des états-limites suffisamment réguliers. Une alternative à l'emploi de métamodèles consiste à accélérer les calculs mécaniques. C'est l'objectif de l'approche SLDL T (décomposition LDL T Stochastique) qui se base sur une modification de la décomposition de Cholesky en supposant que les variations de la matrice L sont négligeables dans le domaine de variation des variables aléatoires. L'aléa est alors reporté sur la matrice diagonale D, optimisée de façon à minimiser l'erreur sur la matrice de rigidité. Les résultats montrent un gain en temps de calcul de l'ordre de 180 sur un exemple industriel dont le comportement mécanique est linéaire élastique et le module d'Young modélisé par un champ stochastique
This thesis take place in the context of the estimation of the reliability of structures under fatigue loading. In the case of industrial applications, each model evaluation may be time and storage consuming. This way, only a few number of evaluations can be performed. This efficient estimation of the reliability of structures under fatigue loading implies to word on the reliability algorithm as well as the speeding up of mechanical computations. In this double issue lies the settlement of this thesis. Concerning the reliability part, the RPCM (Resampling Polynomial Chaos Method) method has been developed. The goal is to build the polynomial chaos basis in an adaptative way such that the troncature error is taken into account. This erros is estimad through confidence intervals on the reliability index. Numerical results show a very good behaviour of the proposed method in the case of smooth limit-state functions. However, metamodels are not the only way to speed up computations. Another strategy consists in accelerate the mechanical computations by approximating the closest calculi controlling the error. This is the idea of the SLDL T (Stochastic LDL T decomposition) approach which is based on a slight modification of the Cholesky decomposition assuming that the fluctuations of the lower matrix L are negligible in the domain of variation of the random inputs. The randonmess is put on the digonal matrix D, which is optimized such a way to minimize the error on the stiffness matrix. In the case of a linear elastic mechanical behaviour with the Young’s modulus modeled by a random field, results show a gain factor round to 180
Styles APA, Harvard, Vancouver, ISO, etc.
9

Delsol, Laurent. « Régression sur variable fonctionnelle : estimation, tests de structure et applications ». Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00449806.

Texte intégral
Résumé :
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Li, Weiyu. « Quelques contributions à l'estimation des modèles définis par des équations estimantes conditionnelles ». Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S065/document.

Texte intégral
Résumé :
Dans cette thèse, nous étudions des modèles définis par des équations de moments conditionnels. Une grande partie de modèles statistiques (régressions, régressions quantiles, modèles de transformations, modèles à variables instrumentales, etc.) peuvent se définir sous cette forme. Nous nous intéressons au cas des modèles avec un paramètre à estimer de dimension finie, ainsi qu’au cas des modèles semi paramétriques nécessitant l’estimation d’un paramètre de dimension finie et d’un paramètre de dimension infinie. Dans la classe des modèles semi paramétriques étudiés, nous nous concentrons sur les modèles à direction révélatrice unique qui réalisent un compromis entre une modélisation paramétrique simple et précise, mais trop rigide et donc exposée à une erreur de modèle, et l’estimation non paramétrique, très flexible mais souffrant du fléau de la dimension. En particulier, nous étudions ces modèles semi paramétriques en présence de censure aléatoire. Le fil conducteur de notre étude est un contraste sous la forme d’une U-statistique, qui permet d’estimer les paramètres inconnus dans des modèles généraux
In this dissertation we study statistical models defined by condition estimating equations. Many statistical models could be stated under this form (mean regression, quantile regression, transformation models, instrumental variable models, etc.). We consider models with finite dimensional unknown parameter, as well as semiparametric models involving an additional infinite dimensional parameter. In the latter case, we focus on single-index models that realize an appealing compromise between parametric specifications, simple and leading to accurate estimates, but too restrictive and likely misspecified, and the nonparametric approaches, flexible but suffering from the curse of dimensionality. In particular, we study the single-index models in the presence of random censoring. The guiding line of our study is a U-statistics which allows to estimate the unknown parameters in a wide spectrum of models
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie