Siga este enlace para ver otros tipos de publicaciones sobre el tema: Analyse statistique multiple.

Tesis sobre el tema "Analyse statistique multiple"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 43 mejores tesis para su investigación sobre el tema "Analyse statistique multiple".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Zhang, Jian. "Bayesian multiple hypotheses testing with quadratic criterion". Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0016/document.

Texto completo
Resumen
Le problème de détection et localisation d’anomalie peut être traité comme le problème du test entre des hypothèses multiples (THM) dans le cadre bayésien. Le test bayésien avec la fonction de perte 0−1 est une solution standard pour ce problème, mais les hypothèses alternatives pourraient avoir une importance tout à fait différente en pratique. La fonction de perte 0−1 ne reflète pas cette réalité tandis que la fonction de perte quadratique est plus appropriée. L’objectif de cette thèse est la conception d’un test bayésien avec la fonction de perte quadratique ainsi que son étude asymptotique. La construction de ce test est effectuée en deux étapes. Dans la première étape, un test bayésien avec la fonction de perte quadratique pour le problème du THM sans l’hypothèse de base est conçu et les bornes inférieures et supérieures des probabilités de classification erronée sont calculées. La deuxième étape construit un test bayésien pour le problème du THM avec l’hypothèse de base. Les bornes inférieures et supérieures des probabilités de fausse alarme, des probabilités de détection manquée, et des probabilités de classification erronée sont calculées. A partir de ces bornes, l’équivalence asymptotique entre le test proposé et le test standard avec la fonction de perte 0−1 est étudiée. Beaucoup d’expériences de simulation et une expérimentation acoustique ont illustré l’efficacité du nouveau test statistique
The anomaly detection and localization problem can be treated as a multiple hypotheses testing (MHT) problem in the Bayesian framework. The Bayesian test with the 0−1 loss function is a standard solution for this problem, but the alternative hypotheses have quite different importance in practice. The 0−1 loss function does not reflect this fact while the quadratic loss function is more appropriate. The objective of the thesis is the design of a Bayesian test with the quadratic loss function and its asymptotic study. The construction of the test is made in two steps. In the first step, a Bayesian test with the quadratic loss function for the MHT problem without the null hypothesis is designed and the lower and upper bounds of the misclassification probabilities are calculated. The second step constructs a Bayesian test for the MHT problem with the null hypothesis. The lower and upper bounds of the false alarm probabilities, the missed detection probabilities as well as the misclassification probabilities are calculated. From these bounds, the asymptotic equivalence between the proposed test and the standard one with the 0-1 loss function is studied. A lot of simulation and an acoustic experiment have illustrated the effectiveness of the new statistical test
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Abdessemed, Lila. "Intégration de la contigui͏̈té en analyse factorielle discriminante et généralisation de l'analyse factorielle multiple aux tableaux de fréquence". Rennes 1, 1994. http://www.theses.fr/1994REN10029.

Texto completo
Resumen
Le principal but de cette thèse consiste à introduire la notion de contigui͏̈té en analyse factorielle discriminante. Dans une première forme, nous l'intégrons à posteriori puisqu'elle n'intervient que dans la phase d'affectation; la technique proposée est plus spécialement conçue pour la discrimination multi -classes et a été illustrée par une application en imagerie satellitaire. Nous proposons une première méthode basée exclusivement sur l'information locale, tandis que dans une seconde méthode, nous éliminons les différences non significatives qui peuvent exister entre les sous-classes d'une classe. Par ailleurs, Nous proposons une méthode généralisant l'analyse factorielle multiple aux tableaux de fréquence, permettant ainsi l'étude simultanée de trois types de tableaux différents
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Collignon, Olivier. "Recherche statistique de biomarqueurs du cancer et de l'allergie à l'arachide". Phd thesis, Nancy 1, 2009. http://tel.archives-ouvertes.fr/tel-00430177.

Texto completo
Resumen
La première partie de la thèse traite de la recherche de biomarqueurs du cancer. Lors de la transcription, il apparaît que certains nucléotides peuvent être remplacés par un autre nucléotide. On s'intéresse alors à la comparaison des probabilités de survenue de ces infidélités de transcription dans des ARNm cancéreux et dans des ARNm sains. Pour cela, une procédure de tests multiples menée sur les positions des séquences de référence de 17 gènes est réalisée via les EST (Expressed Sequence Tag). On constate alors que ces erreurs de transcription sont majoritairement plus fréquentes dans les tissus cancéreux que dans les tissus sains. Ce phénomène conduirait ainsi à la production de protéines dites aberrantes, dont la mesure permettrait par la suite de détecter les patients atteints de formes précoces de cancer. La deuxième partie de la thèse s'attache à l'étude de l'allergie à l'arachide. Afin de diagnostiquer l'allergie à l'arachide et de mesurer la sévérité des symptômes, un TPO (Test de Provocation Orale) est réalisé en clinique. Le protocole consiste à faire ingérer des doses croissantes d'arachide au patient jusqu'à l'apparition de symptômes objectifs. Le TPO pouvant se révéler dangereux pour le patient, des analyses discriminantes de l'allergie à l'arachide, du score du TPO, du score du premier accident et de la dose réactogène sont menées à partir d'un échantillon de 243 patients, recrutés dans deux centres différents, et sur lesquels sont mesurés 6 dosages immunologiques et 30 tests cutanés. Les facteurs issus d'une Analyse Factorielle Multiple sont également utilisés comme prédicteurs. De plus, un algorithme regroupant simultanément en classes des intervalles comprenant les doses réactogènes et sélectionnant des variables explicatives est proposé, afin de mettre ensuite en compétition des règles de classement. La principale conclusion de cette étude est que les mesures de certains anticorps peuvent apporter de l'information sur l'allergie à l'arachide et sa sévérité, en particulier ceux dirigés contre rAra-h1, rAra-h2 et rAra-h3.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Dupuy, Mariette. "Analyse des caractéristiques électriques pour la détection des sujets à risque de mort subite cardiaque". Electronic Thesis or Diss., Bordeaux, 2025. http://www.theses.fr/2025BORD0002.

Texto completo
Resumen
La mort subite cardiaque (MSC) représente 30% de la mortalité adulte des pays industrialisés. La majeure partie des MSC est la conséquence d’une arythmie appelée fibrillation ventriculaire, elle-même étant la conséquence d’un muscle cardiaque présentant des anomalies structurelles. Malgré l’existence de thérapies efficaces, la majorité des individus présentant un risque de MSC ne sont pas identifiés de manière préventive à cause de l’absence d’examen disponible. Le développement de marqueurs spécifiques sur des enregistrements électrocardiographiques permettrait une identification et une stratification du risque de MSC. Au cours des six dernières années, l’IHU Liryc a enregistré les signaux électriques à la surface du corps chez plus de 800 individus (sains et pathologiques) à l’aide d’un dispositif haute résolution de 128 électrodes. Des caractéristiques ont été calculées sur ces signaux (durée du signal par électrode, fréquence, fractionnement de l’amplitude, ...). Au total, plus de 1500 caractéristiques électriques sont disponibles par patient. Lors du processus d’acquisition par le système de 128 électrodes en milieu hospitalier, le bruit, ou le mauvais positionnement de certaines électrodes ne permettent pas de calculer les caractéristiques prévues, conduisant ainsi à une base de données incomplète. Cette thèse s’organise autour de deux axes. Nous avons dans un premier temps développé une méthode d’imputation de données manquantes pour répondre au problème des électrodes défaillantes. Puis nous avons développé un score de risque pour la stratification du risque de mort subite. La famille de méthodes la plus souvent utilisée pour gérer les données manquantes est l’imputation : allant d’une simple complétion par la moyenne, à des méthodes par agrégation locale, régressions locales, transport optimal ou encore modification de modèles génératifs. Récemment les Autoencoders (AE) et plus précisément les Denoising AutoEncoder (DAE) ont montré de bonnes performances pour cette tâche. Les AE sont des réseaux de neurones utilisés pour apprendre une représentation des données dans un espace de dimension réduit. Les DAE sont des AE qui ont été proposés pour reconstruire, à partir de données bruitées, les données originales. Nous proposons dans ce travail une nouvelle méthodologie basée sur les DAE appelée modified Denoising AutoEncoder (mDAE) pour permettre l’imputation de données manquantes. Le deuxième axe de recherche de la thèse a consisté à la mise en place d’un score du risque de mort subite cardiaque. Les DAE ont la capacité de modéliser et de reconstruire des données complexes. Nous avons ainsi entrainé des DAE à modéliser la distribution des individus sains sur un sous-groupe sélectionné de caractéristiques électriques. Puis nous avons utilisé ces DAE pour discriminer des patients pathologiques des individus sains en analysant la qualité d’imputation du DAE sur des caractéristiques partiellement masquées. Dans le but de mettre en place un score de risque de la mort subite, nous avons également comparé différentes méthodes de classification
Sudden cardiac death (SCD) accounts for 30% of adult mortality in industrialized countries. The majority of SCD cases are the result of an arrhythmia called ventricular fibrillation, which itself results from structural abnormalities in the heart muscle. Despite the existence of effective therapies, most individuals at risk for SCD are not identified preventively due to the lack of available testing. Developing specific markers on electrocardiographic recordings would enable the identification and stratification of SCD risk. Over the past six years, the Liryc Institute has recorded surface electrical signals from over 800 individuals (both healthy and pathological) using a high-resolution 128-electrode device. Features were calculated from these signals (signal duration per electrode, frequency, amplitude fractionation, etc.). In total, more than 1,500 electrical features are available per patient. During the acquisition process using the 128-electrode system in a hospital setting, noise or poor positioning of specific electrodes sometimes prevents calculating the intended features, leading to an incomplete database. This thesis is organized around two main axes. First, we developed a method for imputing missing data to address the problem of faulty electrodes. Then, we developed a risk score for the sudden death risk stratification. The most commonly used family of methods for handling missing data is imputation, ranging from simple completion by averaging to local aggregation methods, local regressions, optimal transport, or even modifications of generative models. Recently, Autoencoders (AE) and, more specifically, Denoising AutoEncoders (DAE) have performed well in this task. AEs are neural networks used to learn a representation of data in a reduced-dimensional space. DAEs are AEs that have been proposed to reconstruct original data from noisy data. In this work, we propose a new methodology based on DAEs called the modified Denoising AutoEncoder (mDAE) to allow for the imputation of missing data. The second research axis of the thesis focused on developing a risk score for sudden cardiac death. DAEs can model and reconstruct complex data. We trained DAEs to model the distribution of healthy individuals based on a selected subset of electrical features. Then, we used these DAEs to discriminate pathological patients from healthy individuals by analyzing the imputation quality of the DAE on partially masked features. We also compared different classification methods to establish a risk score for sudden death
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Girka, Fabien. "Development of new statistical/ML methods for identifying multimodal factors related to the evolution of Multiple Sclerosis". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG075.

Texto completo
Resumen
L'étude d'un phénomène à travers plusieurs modalités peut permettre de mieux en comprendre les mécanismes sous-jacents par rapport à l'étude indépendante des différentes modalités. Dans l'optique d'une telle étude, les données sont souvent acquises par différentes sources, donnant lieu à des jeux de données multimodaux/multi-sources/multiblocs. Un cadre statistique explicitement adapté pour l'analyse jointe de données multi-sources est l'Analyse Canonique des Corrélations Généralisée Régularisée (RGCCA). RGCCA extrait des vecteurs et composantes canoniques qui résument les différentes modalités et leurs interactions.Les contributions de cette thèse sont de quatre ordres. (i) Améliorer et enrichir le package R pour RGCCA afin de démocratiser son usage. (ii) Etendre le cadre de RGCCA pour mieux prendre en compte les données tensorielles en imposant une décomposition tensorielle de rang faible aux vecteurs canoniques extraits par la méthode. (iii) Proposer et étudier des approches simultanées de RGCCA pour obtenir toutes les composantes canoniques d'un seul coup. Les méthodes proposées ouvrent la voie à de nouveaux développements de RGCCA. (iv) Utiliser les outils et l'expertise développés pour analyser des données sur la sclérose en plaques et la leucodystrophie. L'accent est mis sur l'identification de biomarqueurs permettant de différencier les patients des témoins sains ou de trouver des différences entre groupes de patients
Studying a given phenomenon under multiple views can reveal a more significant part of the mechanisms at stake rather than considering each view separately. In order to design a study under such a paradigm, measurements are usually acquired through different modalities resulting in multimodal/multiblock/multi-source data. One statistical framework suited explicitly for the joint analysis of such multi-source data is Regularized Generalized Canonical Correlation Analysis (RGCCA). RGCCA extracts canonical vectors and components that summarize the different views and their interactions. The contributions of this thesis are fourfold. (i) Improve and enrich the RGCCA R package to democratize its use. (ii) Extend the RGCCA framework to better handle tensor data by imposing a low-rank tensor factorization to the extracted canonical vectors. (iii) Propose and investigate simultaneous versions of RGCCA to get all canonical components at once. The proposed methods pave the way for new extensions of RGCCA. (iv) Use the developed tools and expertise to analyze multiple sclerosis and leukodystrophy data. A focus is made on identifying biomarkers differentiating between patients and healthy controls or between groups of patients
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Kumar, Vandhna. "Descente d'échelle statistique du niveau de la mer pour les îles du Pacifique Sud-Ouest : une approche de régression linéaire multiple". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30234.

Texto completo
Resumen
L'élévation du niveau de la mer est une préoccupation croissante dans les îles du Pacifique. Au cours de l'ère altimétrique (depuis 1993), les taux d'élévation du niveau de la mer sur le Pacific tropical ouest ont été parmi les plus élevés du monde, atteignant jusqu'à 3-4 fois la moyenne globale. Alors que de plus en plus de communautés soumises aux risques associés à cette hausse du niveau de la mer se déplacent vers des terres plus élevées pour échapper à la montée des eaux, il est impératif de disposer de prédictions du niveau de la mer à l'échelle locale pour faciliter le processus d'adaptation et de planification. Ce processus n'est pas simple car le niveau de la mer varie d'une région à l'autre, notamment en fonction des redistributions de chaleur, sel et masses opérées aux échelles régionales par la circulation océanique, et des modes climatiques dominants (par exemple, ENSO, PDO/IPO). Même à l'échelle locale, d'importants changements du niveau de la mer relatif peuvent résulter de mouvements verticaux naturels ou anthropiques du sol terrestre. Motivée par ces préoccupations, cette thèse se concentre sur l'utilisation d'une technique de descente d'échelle statistique basée sur des régressions linéaires multiples (MLR) pour modéliser les variations interannuelles-à-interdécennales du niveau de la mer pour trois sites côtiers localisés sur des îles du Pacifique Sud-Ouest - Suva et Lautoka à Fidji, et Nouméa en Nouvelle-Calédonie. Le modèle MLR est basé sur la connaissance que les variations du niveau de la mer à ces échelles de temps dans le Pacifique tropical sont principalement de nature thermostérique (c.-à-d. provenant des changements de densité de l'eau de mer induits par des changements de température de l'océan) et que ces variations thermostériques sont principalement générées par les variations de forçage de vent et les ondes de Rossby se propageant vers l'ouest qui en résultent. Les expériences de MLR sont menées sur la période d'étude 1988-2014, l'accent étant mis sur la variabilité interannuelle à décennale et les tendances du niveau de la mer. Le niveau de la mer pour les trois sites côtiers insulaires est d'abord exprimé sous forme de somme des variations stériques et de masse. Dans un second temps, les modèles MLR développés se basent sur une approche plus orientée processus, en utilisant le rotationnel de tension de vent comme approximation de la composante thermostérique.[...]
Sea level rise is a growing concern in the islands of the western Pacific. Over the altimetry era (1993-present), sea level rise rates in the western tropical Pacific were amongst the highest recorded across the world ocean, reaching up to 3-4 times the global mean. As more and more affected communities relocate to higher grounds to escape the rising seas, there is a compelling need for information on local scales to ease the adaptation and planning process. This is not a straightforward process as sea level varies regionally, driven by wind and ocean circulation patterns, and the prevailing climate modes (e.g. ENSO, PDO/IPO). On local scales, substantial sea level changes can result from natural or anthropogenic induced vertical ground motion. Motivated by such concerns, this thesis focuses on developing a statistical downscaling technique, namely a multiple linear regression (MLR) model, to simulate island sea levels at selected sites in the southwest Pacific - Suva and Lautoka in Fiji, and Nouméa in New Caledonia. The model is based on the knowledge that sea level variations in the tropical Pacific are mainly thermosteric in nature (temperature-related changes in ocean water density) and that these thermosteric variations are dominated by wind-forced, westward propagating Rossby waves. The MLR experiments are conducted over the 1988-2014 study period, with a focus on interannual-to-decadal sea level variability and trend. Island sea levels are first expressed a sum of steric and mass changes. Then, a more dynamical approach using wind stress curl as a proxy for the thermosteric component is undertaken to construct the MLR model. In the latter case, island sea levels are perceived as a composite of global, regional and local components, where the second is dominant. The MLR model takes wind stress curl as the dominant regional regressor (via a Rossby wave model), and the local halosteric component (salinity-related changes in ocean water density), local wind stress, and local sea surface temperature as minor regressors. A stepwise regression function is used to isolate statistically significant regressors before calibrating the MLR model. The modeled sea level shows high agreement with observations, capturing 80% of the variance on average. Stationarity tests on the MLR model indicate that it can be applied skillfully to projections of future sea level. The statistical downscaling approach overall provides insights on key drivers of sea level variability at the selected sites, showing that while local dynamics and the global signal modulate sea level to a given extent, most of the variance is driven by regional factors. [...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Jmel, Saïd. "Applications des modèles graphiques au choix de variables et à l'analyse des interactions dans une table de contingence multiple". Toulouse 3, 1992. http://www.theses.fr/1992TOU30091.

Texto completo
Resumen
On presente quelques aspects de l'apport des modeles graphiques en analyse des donnees multidimensionnelles. Deux sujets ont ete abordes. Le premier concerne la selection des variables. On propose une nouvelle methode basee sur un type particulier de modeles graphiques. On donne deux applications de cette methode: la premiere en analyse en composantes principales et la seconde en analyse loglineaire. Le second sujet traite de la modelisation des interactions dans une table de contingence multiple. On montre comment l'analyse factorielle des correspondances et les modeles d'association ligne colonne de goodman peuvent sous certaines contraintes prendre en consideration la structure du graphe d'interactions ou le graphe d'independance conditionnelle associe a cette table. En complement, on suggere quelques techniques d'analyse des donnees susceptibles d'aider a la construction de tels graphes
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Pluntz, Matthieu. "Sélection de variables en grande dimension par le Lasso et tests statistiques - application à la pharmacovigilance". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASR002.

Texto completo
Resumen
La sélection de variables dans une régression de grande dimension est un problème classique dans l'exploitation de données de santé, où l'on cherche à identifier un nombre limité de facteurs associés à un évènement parmi un grand nombre de variables candidates : facteurs génétiques, expositions environnementales ou médicamenteuses.La régression Lasso (Tibshirani, 1996) fournit une suite de modèles parcimonieux où les variables apparaissent les unes après les autres suivant la valeur du paramètre de régularisation. Elle doit s'accompagner d'une procédure du choix de ce paramètre et donc du modèle associé. Nous proposons ici des procédures de sélection d'un des modèles du chemin du Lasso qui font partie, ou s'inspirent, du paradigme des tests statistiques. De la sorte, nous cherchons à contrôler le risque de sélection d'au moins un faux positif (Family-Wise Error Rate, FWER), au contraire de la plupart des méthodes existantes de post-traitement du Lasso qui acceptent plus facilement des faux positifs.Notre première proposition est une généralisation du critère d'information d'Akaike (AIC) que nous appelons AIC étendu (EAIC). La log-vraisemblance du modèle considéré y est pénalisée par son nombre de paramètres affecté d'un poids qui est fonction du nombre total de variables candidates et du niveau visé de FWER, mais pas du nombre d'observations. Nous obtenons cette fonction en rapprochant la comparaison de critères d'information de sous-modèles emboîtés d'une régression en grande dimension, de tests multiples du rapport de vraisemblance sur lesquels nous démontrons un résultat asymptotique.Notre deuxième proposition est un test de la significativité d'une variable apparaissant sur le chemin du Lasso. Son hypothèse nulle dépend d'un ensemble A de variables déjà sélectionnées et énonce qu'il contient toutes les variables actives. Nous cherchons à prendre comme statistique de test la valeur du paramètre de régularisation à partir de laquelle une première variable en dehors de A est sélectionnée par le Lasso. Ce choix se heurte au fait que l'hypothèse nulle n'est pas assez spécifiée pour définir la loi de cette statistique et donc sa p-value. Nous résolvons cela en lui substituant sa p-value conditionnelle, définie conditionnellement aux coefficients estimés du modèle non pénalisé restreint à A. Nous estimons celle-ci par un algorithme que nous appelons simulation-calibration, où des vecteurs réponses sont simulés puis calibrés sur les coefficients estimés du vecteur réponse observé. Nous adaptons de façon heuristique la calibration au cas des modèles linéaires généralisés (binaire et de Poisson) dans lesquels elle est une procédure itérative et stochastique. Nous prouvons que l'utilisation du test permet de contrôler le risque de sélection d'un faux positif dans les modèles linéaires, à la fois lorsque l'hypothèse nulle est vérifiée mais aussi, sous une condition de corrélation, lorsque A ne contient pas toutes les variables actives.Nous mesurons les performances des deux procédures par des études de simulations extensives, portant à la fois sur la sélection éventuelle d'une variable sous l'hypothèse nulle (ou son équivalent pour l'EAIC) et sur la procédure globale de sélection d'un modèle. Nous observons que nos propositions se comparent de façon satisfaisante à leurs équivalents les plus proches déjà existants, BIC et ses versions étendues pour l'EAIC et le test de covariance de Lockhart et al. (2014) pour le test par simulation-calibration. Nous illustrons également les deux procédures dans la détection d'expositions médicamenteuses associées aux pathologies hépatiques (drug-induced liver injuries, DILI) dans la base nationale de pharmacovigilance (BNPV) en mesurant leurs performances grâce à l'ensemble de référence DILIrank d'associations connues
Variable selection in high-dimensional regressions is a classic problem in health data analysis. It aims to identify a limited number of factors associated with a given health event among a large number of candidate variables such as genetic factors or environmental or drug exposures.The Lasso regression (Tibshirani, 1996) provides a series of sparse models where variables appear one after another depending on the regularization parameter's value. It requires a procedure for choosing this parameter and thus the associated model. In this thesis, we propose procedures for selecting one of the models of the Lasso path, which belong to or are inspired by the statistical testing paradigm. Thus, we aim to control the risk of selecting at least one false positive (Family-Wise Error Rate, FWER) unlike most existing post-processing methods of the Lasso, which accept false positives more easily.Our first proposal is a generalization of the Akaike Information Criterion (AIC) which we call the Extended AIC (EAIC). We penalize the log-likelihood of the model under consideration by its number of parameters weighted by a function of the total number of candidate variables and the targeted level of FWER but not the number of observations. We obtain this function by observing the relationship between comparing the information criteria of nested sub-models of a high-dimensional regression, and performing multiple likelihood ratio test, about which we prove an asymptotic property.Our second proposal is a test of the significance of a variable appearing on the Lasso path. Its null hypothesis depends on a set A of already selected variables and states that it contains all the active variables. As the test statistic, we aim to use the regularization parameter value from which a first variable outside A is selected by Lasso. This choice faces the fact that the null hypothesis is not specific enough to define the distribution of this statistic and thus its p-value. We solve this by replacing the statistic with its conditional p-value, which we define conditional on the non-penalized estimated coefficients of the model restricted to A. We estimate the conditional p-value with an algorithm that we call simulation-calibration, where we simulate outcome vectors and then calibrate them on the observed outcome‘s estimated coefficients. We adapt the calibration heuristically to the case of generalized linear models (binary and Poisson) in which it turns into an iterative and stochastic procedure. We prove that using our test controls the risk of selecting a false positive in linear models, both when the null hypothesis is verified and, under a correlation condition, when the set A does not contain all active variables.We evaluate the performance of both procedures through extensive simulation studies, which cover both the potential selection of a variable under the null hypothesis (or its equivalent for EAIC) and on the overall model selection procedure. We observe that our proposals compare well to their closest existing counterparts, the BIC and its extended versions for the EAIC, and Lockhart et al.'s (2014) covariance test for the simulation-calibration test. We also illustrate both procedures in the detection of exposures associated with drug-induced liver injuries (DILI) in the French national pharmacovigilance database (BNPV) by measuring their performance using the DILIrank reference set of known associations
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Tran, Xuan Quang. "Les modèles de régression dynamique et leurs applications en analyse de survie et fiabilité". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0147/document.

Texto completo
Resumen
Cette thèse a été conçu pour explorer les modèles dynamiques de régression, d’évaluer les inférences statistiques pour l’analyse des données de survie et de fiabilité. Ces modèles de régression dynamiques que nous avons considérés, y compris le modèle des hasards proportionnels paramétriques et celui de la vie accélérée avec les variables qui peut-être dépendent du temps. Nous avons discuté des problèmes suivants dans cette thèse.Nous avons présenté tout d’abord une statistique de test du chi-deux généraliséeY2nquiest adaptative pour les données de survie et fiabilité en présence de trois cas, complètes,censurées à droite et censurées à droite avec les covariables. Nous avons présenté en détailla forme pratique deY2nstatistique en analyse des données de survie. Ensuite, nous avons considéré deux modèles paramétriques très flexibles, d’évaluer les significations statistiques pour ces modèles proposées en utilisantY2nstatistique. Ces modèles incluent du modèle de vie accélérés (AFT) et celui de hasards proportionnels (PH) basés sur la distribution de Hypertabastic. Ces deux modèles sont proposés pour étudier la distribution de l’analyse de la duré de survie en comparaison avec d’autre modèles paramétriques. Nous avons validé ces modèles paramétriques en utilisantY2n. Les études de simulation ont été conçus.Dans le dernier chapitre, nous avons proposé les applications de ces modèles paramétriques à trois données de bio-médicale. Le premier a été fait les données étendues des temps de rémission des patients de leucémie aiguë qui ont été proposées par Freireich et al. sur la comparaison de deux groupes de traitement avec des informations supplémentaires sur les log du blanc du nombre de globules. Elle a montré que le modèle Hypertabastic AFT est un modèle précis pour ces données. Le second a été fait sur l’étude de tumeur cérébrale avec les patients de gliome malin, ont été proposées par Sauerbrei & Schumacher. Elle a montré que le meilleur modèle est Hypertabastic PH à l’ajout de cinq variables de signification. La troisième demande a été faite sur les données de Semenova & Bitukov, à concernant les patients de myélome multiple. Nous n’avons pas proposé un modèle exactement pour ces données. En raison de cela était les intersections de temps de survie.Par conséquent, nous vous conseillons d’utiliser un autre modèle dynamique que le modèle de la Simple Cross-Effect à installer ces données
This thesis was designed to explore the dynamic regression models, assessing the sta-tistical inference for the survival and reliability data analysis. These dynamic regressionmodels that we have been considered including the parametric proportional hazards andaccelerated failure time models contain the possibly time-dependent covariates. We dis-cussed the following problems in this thesis.At first, we presented a generalized chi-squared test statisticsY2nthat is a convenient tofit the survival and reliability data analysis in presence of three cases: complete, censoredand censored with covariates. We described in detail the theory and the mechanism to usedofY2ntest statistic in the survival and reliability data analysis. Next, we considered theflexible parametric models, evaluating the statistical significance of them by usingY2nandlog-likelihood test statistics. These parametric models include the accelerated failure time(AFT) and a proportional hazards (PH) models based on the Hypertabastic distribution.These two models are proposed to investigate the distribution of the survival and reliabilitydata in comparison with some other parametric models. The simulation studies were de-signed, to demonstrate the asymptotically normally distributed of the maximum likelihood estimators of Hypertabastic’s parameter, to validate of the asymptotically property of Y2n test statistic for Hypertabastic distribution when the right censoring probability equal 0% and 20%.n the last chapter, we applied those two parametric models above to three scenes ofthe real-life data. The first one was done the data set given by Freireich et al. on thecomparison of two treatment groups with additional information about log white blood cellcount, to test the ability of a therapy to prolong the remission times of the acute leukemiapatients. It showed that Hypertabastic AFT model is an accurate model for this dataset.The second one was done on the brain tumour study with malignant glioma patients, givenby Sauerbrei & Schumacher. It showed that the best model is Hypertabastic PH onadding five significance covariates. The third application was done on the data set given by Semenova & Bitukov on the survival times of the multiple myeloma patients. We did not propose an exactly model for this dataset. Because of that was an existing oneintersection of survival times. We, therefore, suggest fitting other dynamic model as SimpleCross-Effect model for this dataset
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Héraud, Bousquet Vanina. "Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T017/document.

Texto completo
Resumen
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses
The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Blain, Alexandre. "Reliable statistical inference : controlling the false discovery proportion in high-dimensional multivariate estimators". Electronic Thesis or Diss., université Paris-Saclay, 2024. https://theses.hal.science/tel-04935172.

Texto completo
Resumen
La sélection de variables sous contrôle statistique est un problème fondamental rencontré dans divers domaines où les praticiens doivent évaluer l'importance des variables d'entrée par rapport à un résultat d'intérêt. Dans ce contexte, le contrôle statistique vise à limiter la proportion de fausses découvertes, c'est-à-dire la proportion de variables sélectionnées qui sont indépendantes du résultat d'intérêt. Dans cette thèse, nous développons des méthodes visant à assurer un contrôle statistique dans des contextes de grande dimension tout en conservant la puissance statistique. Nous présentons quatre contributions clés dans ce domaine de recherche. Premièrement, nous introduisons Notip, une méthode non paramétrique qui permet aux utilisateurs d'obtenir des garanties sur la proportion de vraies découvertes dans n'importe quelle région cérébrale. Cette procédure améliore la sensibilité de détection par rapport aux méthodes existantes tout en conservant le contrôle des fausses découvertes. Deuxièmement, nous étendons le cadre Knockoff en proposant KOPI, une méthode qui fournit un contrôle de la proportion de fausses découvertes (FDP) en probabilité plutôt qu'en espérance. KOPI est naturellement compatible avec l'agrégation de plusieurs tirages Knockoff, ce qui permet de prendre en compte la variabilité de l'inférence Knockoff traditionnelle. Troisièmement, nous développons un outil de diagnostic pour identifier les violations de l'hypothèse d'échangeabilité dans Knockoffs, accompagné d'une nouvelle méthode non paramétrique de génération de Knockoffs qui restaure le contrôle des fausses découvertes. Enfin, nous introduisons CoJER pour améliorer la prédiction conforme en fournissant un contrôle précis de la proportion de couverture fausse (FCP) lorsque plusieurs points de test sont pris en compte, garantissant des estimations d'incertitude plus fiables. CoJER peut également être utilisé pour agréger les intervalles de confiance fournis par différents modèles prédictifs, atténuant ainsi l'impact des choix de modélisation. Ensemble, ces contributions renforcent la fiabilité de l'inférence statistique dans des contextes de grande dimension tels que les données de neuroimagerie et de génomique
Statistically controlled variable selection is a fundamental problem encountered in diverse fields where practitioners have to assess the importance of input variables with regards to an outcome of interest. In this context, statistical control aims at limiting the proportion of false discoveries, meaning the proportion of selected variables that are independent of the outcome of interest. In this thesis, we develop methods that aim at statistical control in high-dimensional settings while retaining statistical power. We present four key contributions in this avenue of work. First, we introduce Notip, a non-parametric method that allows users to obtain guarantees on the proportion of true discoveries in any brain region. This procedure improves detection sensitivity over existing methods while retaining false discoveries control. Second, we extend the Knockoff framework by proposing KOPI, a method that provides False Discovery Proportion (FDP) control in probability rather than in expectancy. KOPI is naturally compatible with aggregation of multiple Knockoffs draws, addressing the randomness of traditional Knockoff inference. Third, we develop a diagnostic tool to identify violations of the exchangeability assumption in Knockoffs, accompanied by a novel non-parametric Knockoff generation method that restores false discoveries control. Finally, we introduce CoJER to enhance conformal prediction by providing sharp control of the False Coverage Proportion (FCP) when multiple test points are considered, ensuring more reliable uncertainty estimates. CoJER can also be used to aggregate the confidence intervals provided by different predictive models, thus mitigating the impact of modeling choices. Together, these contributions advance the reliability of statistical inference in high-dimensional settings such as neuroimaging and genomic data
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Wolley, Chirine. "Apprentissage supervisé à partir des multiples annotateurs incertains". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4070/document.

Texto completo
Resumen
En apprentissage supervisé, obtenir les réels labels pour un ensemble de données peut être très fastidieux et long. Aujourd'hui, les récentes avancées d'Internet ont permis le développement de services d'annotations en ligne, faisant appel au crowdsourcing pour collecter facilement des labels. Néanmoins, le principal inconvénient de ces services réside dans le fait que les annotateurs peuvent avoir des niveaux d'expertise très hétérogènes. De telles données ne sont alors pas forcément fiables. Par conséquent, la gestion de l'incertitude des annotateurs est un élément clé pour l'apprentissage à partir de multiples annotateurs non experts. Dans cette thèse, nous proposons des algorithmes probabilistes qui traitent l'incertitude des annotateurs et la qualité des données durant la phase d'apprentissage. Trois modèles sont proposés: IGNORE permet de classer de nouvelles instances tout en évaluant les annotateurs en terme de performance d'annotation qui dépend de leur incertitude. X-IGNORE intègre la qualité des données en plus de l'incertitude des juges. En effet, X-IGNORE suppose que la performance des annotateurs dépend non seulement de leur incertitude mais aussi de la qualité des données qu'ils annotent. Enfin, ExpertS répond au problème de sélection d'annotateurs durant l'apprentissage. ExpertS élimine les annotateurs les moins performants, et se base ainsi uniquement sur les labels des bons annotateurs (experts) lors de l'étape d'apprentissage. De nombreuses expérimentations effectuées sur des données synthétiques et réelles montrent la performance et la stabilité de nos modèles par rapport à différents algorithmes de la littérature
In supervised learning tasks, obtaining the ground truth label for each instance of the training dataset can be difficult, time-consuming and/or expensive. With the advent of infrastructures such as the Internet, an increasing number of web services propose crowdsourcing as a way to collect a large enough set of labels from internet users. The use of these services provides an exceptional facility to collect labels from anonymous annotators, and thus, it considerably simplifies the process of building labels datasets. Nonetheless, the main drawback of crowdsourcing services is their lack of control over the annotators and their inability to verify and control the accuracy of the labels and the level of expertise for each labeler. Hence, managing the annotators' uncertainty is a clue for learning from imperfect annotations. This thesis provides three algorithms when learning from multiple uncertain annotators. IGNORE generates a classifier that predict the label of a new instance and evaluate the performance of each annotator according to their level of uncertainty. X-Ignore, considers that the performance of the annotators both depends on their uncertainty and on the quality of the initial dataset to be annotated. Finally, ExpertS deals with the problem of annotators' selection when generating the classifier. It identifies experts annotators, and learn the classifier based only on their labels. We conducted in this thesis a large set of experiments in order to evaluate our models, both using experimental and real world medical data. The results prove the performance and accuracy of our models compared to previous state of the art solutions in this context
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Koulechova, Gozal Olga. "Analyse statistique des mesures multiples en application au traitement d'image". Bordeaux 1, 2000. http://www.theses.fr/2000BOR10536.

Texto completo
Resumen
En matiere de traitement d'images, un des problemes majeurs est celui de l'association entre les cibles observees et les points detectes. Jusqu'ici, des procedures classiques d'association de donnees etaient utilisees, mais ces procedures sont tres lourdes a mettre en uvre, et ne permettent pas toujours d'obtenir des resultats satisfaisants des lors que les cibles observees sont trop proches. La procedure que nous envisageons dans cette these permet d'eviter le probleme de l'association. Elle est basee sur les statistiques invariantes par rapport aux permutations des ensembles de coordonnees des cibles. Cette procedure a ete inventee et developpee par a. V bernstein pour le cas particulier des mesures completes. L'objectif de cette these est de generaliser cette nouvelle procedure afin de pouvoir l'utiliser dans le cadre de mesures incompletes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Benghanem, Abdelghani. "Étude et optimisation de la qualité sonore d'un véhicule récréatif motorisé". Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11573.

Texto completo
Resumen
La qualité sonore (QS) est un facteur important dans la conception et pour la perception des produits, notamment dans le cas des véhicules. Il est donc fondamental d'étudier la qualité sonore des véhicules récréatifs motorisés. L'objectif est d'étudier le bruit généré par un véhicule récréatif motorisé (VRM) et de rendre ce dernier plus agréable pour le conducteur afin de rajouter plus de plaisir à l'expérience de conduite. Le projet est basé sur trois volets importants. Le premier volet consiste à identifier les paramètres physiques des différents composants acoustiques d'un véhicule récréatif motorisé, de conduire des tests d'écoute et d'en faire une étude statistique. Pour ce faire, plusieurs bases de données ont été déjà établies par des enregistrements binauraux correspondants à la position du pilote. Le deuxième volet consiste à définir une méthode de prédiction des résultats de tests d'écoute de préférence par des indicateurs psychoacoustiques dits objectifs, issus des signaux mesurés pour les tests d'écoute de préférence. L'originalité de cette partie est l'utilisation des méthodes statistiques de régression linéaire multiple pour la conception du modèle perceptif, et notamment l'algorithme Lasso qui permet la création de modèles de prédiction de qualité sonore parcimonieux. Le troisième volet consiste à concevoir un dispositif de modification et d'amélioration du son moteur, par filtrage numérique des signaux binauraux, puis étudier son effet à partir de la reproduction de sons simulés et mesurés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN". Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Texto completo
Resumen
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Shen, Kaikai. "Automatic segmentation and shape analysis of human hippocampus in Alzheimer's disease". Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOS072/document.

Texto completo
Resumen
L’objectif de cette thèse est l’étude des changements de la forme de l’hippocampe due à l’atrophie causée par la maladie d’Alzheimer. Pour ce faire, des algorithmes et des méthodes ont été développés pour segmenter l’hippocampe à partir d’imagerie structurelle par résonance magnétique (IRM) et pour modéliser les variations dans sa forme. Nous avons utilisé une méthode de segmentation par propagation de multiple atlas pour la segmentation de l’hippocampe, méthode qui a été démontrée comme étant robuste dans la segmentation des structures cérébrales. Nous avons développé une méthode supervisée pour construire une base de données d’atlas spécifique à la population d’intérêt en propageant les parcellations d’une base de données génériques d’atlas. Les images correctement segmentées sont inspectées et ajoutées à la base de données d’atlas, de manière à améliorer sa capacité à segmenter de nouvelles images. Ces atlas sont évalués en termes de leur accord lors de la segmentation de nouvelles images. Comparé aux atlas génériques, les atlas spécifiques à la population d’intérêt obtiennent une plus grande concordance lors de la segmentation des des images provenant de cette population. La sélection d’atlas est utilisée pour améliorer la précision de la segmentation. La méthode classique de sélection basée sur la similarité des images est ici étendue pour prendre en compte la pertinence marginale maximale (MMR) et la régression des moindres angles (LAR). En prenant en considération la redondance parmi les atlas, des critères de diversité se montrent être plus efficace dans la sélection des atlas dans le cas où seul un nombre limité d’atlas peut-être fusionné. A partir des hippocampes segmentés, des modèles statistiques de la forme (SSM) sont construits afin de modéliser les variations de la forme de l’hippocampe dans la population. La correspondance entre les hippocampes est établie par une optimisation d’ensemble des surfaces paramétriques. Les paramétrages sphériques des surfaces sont aplatis pour faciliter la reparamétrisation et l’interpolation. Le reparamétrage est régularisé par une contrainte de type fluide visqueux, qui est effectué à l’aide d’une implémentation basée sur la transformées en sinus discrète. Afin d’utiliser le SSM pour décrire la forme d’une nouvelle surface hippocampique, nous avons développé un estimateur des paramètres du model de la forme basée sur l’espérance-maximisation de l’algorithme du plus proche voisin itéré (EM-ICP). Un terme de symétrie est inclus pour forcer une consistance entre la transformée directe et inverse entre le modèle et la forme, ce qui permet une reconstruction plus précise de la forme à partir du modèle. La connaissance a priori sur la forme modélisé par le SSM est utilisée dans l’estimation du maximum a posteriori des paramètres de forme. Cette méthode permet de forcer la continuité spatiale et éviter l’effet de sur-apprentissage. Dans l’étude de l’hippocampe dans la maladie d’Alzheimer, nous utilisons le SSM pour modéliser le changement de forme de l’hippocampe entre les sujets sains et des patients souffrant d’Alzheimer. Nous identifions les régions touchées par l’atrophie dans la maladie d’Alzheimer en évaluant la différence entre les groupes de contrôle et ceux d’Alzheimer sur chaque point correspondant sur la surface. L’analyse des changements de la forme est restreinte aux régions présentant des différences significatives entre les groupes, ce qui a pour effet d’améliorer la discrimination basée sur l’analyse en composantes principales (ACP) du SSM. Les composantes principales décrivant la variabilité de la forme à l’intérieur des régions discriminantes ont une corrélation plus fortes avec le déclin des scores de mémoire épisodique liée à la pathologie de l’hippocampe dans la maladie d’Alzheimer
The aim of this thesis is to investigate the shape change in hippocampus due to the atrophy in Alzheimer’s disease (AD). To this end, specific algorithms and methodologies were developed to segment the hippocampus from structural magnetic resonance (MR) images and model variations in its shape. We use a multi-atlas based segmentation propagation approach for the segmentation of hippocampus which has been shown to obtain accurate parcellation of brain structures. We developed a supervised method to build a population specific atlas database, by propagating the parcellations from a smaller generic atlas database. Well segmented images are inspected and added to the set of atlases, such that the segmentation capability of the atlas set may be enhanced. The population specific atlases are evaluated in terms of the agreement among the propagated labels when segmenting new cases. Compared with using generic atlases, the population specific atlases obtain a higher agreement when dealing with images from the target population. Atlas selection is used to improve segmentation accuracy. In addition to the conventional selection by image similarity ranking, atlas selection based on maximum marginal relevance (MMR) re-ranking and least angle regression (LAR) sequence are developed for atlas selection. By taking the redundancy among atlases into consideration, diversity criteria are shown to be more efficient in atlas selection which is applicable in the situation where the number of atlases to be fused is limited by the computational resources. Given the segmented hippocampal volumes, statistical shape models (SSMs) of hippocampi are built on the samples to model the shape variation among the population. The correspondence across the training samples of hippocampi is established by a groupwise optimization of the parameterized shape surfaces. The spherical parameterization of the hippocampal surfaces are flatten to facilitate the reparameterization and interpolation. The reparameterization is regularized by viscous fluid, which is solved by a fast implementation based on discrete sine transform. In order to use the hippocampal SSM to describe the shape of an unseen hippocampal surface, we developed a shape parameter estimator based on the expectationmaximization iterative closest points (EM-ICP) algorithm. A symmetric data term is included to achieve the inverse consistency of the transformation between the model and the shape, which gives more accurate reconstruction of the shape from the model. The shape prior modeled by the SSM is used in the maximum a posteriori estimation of the shape parameters, which is shown to enforce the smoothness and avoid the effect of over-fitting. In the study of the hippocampus in AD, we use the SSM to model the hippocampal shape change between the healthy control subjects and patients diagnosed with AD. We identify the regions affected by the atrophy in AD by assessing the spatial difference between the control and AD groups at each corresponding landmark. Localized shape analysis is performed on the regions exhibiting significant inter-group difference, which is shown to improve the discrimination ability of the principal component analysis (PCA) based SSM. The principal components describing the localized shape variability among the population are also shown to display stronger correlation with the decline of episodic memory scores linked to the pathology of hippocampus in AD
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Albisser, Marie. "Identification of aerodynamic coefficients from free flight data". Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0083.

Texto completo
Resumen
L'utilisation des coefficients aérodynamiques pour caractériser le comportement d'un objet en vol libre demeure un sujet de recherche parmi les plus complexes et les plus étudiés dans le domaine de la balistique extérieure. La présente étude analyse l'identification des coefficients aérodynamiques à partir de données obtenues lors d'essais en vol libre. Elle vise à modéliser, définir ainsi que maîtriser les techniques d'identification de paramètres les plus adaptées au problème qu'est la détermination des coefficients aérodynamiques. Le travail de thèse a été dédié au développement d'une procédure d'identification pour la détermination des coefficients aérodynamiques à partir de mesures de vol libre et a été testée pour deux cas d'application : un corps de rentrée dans l'atmosphère et un projectile stabilisé par empennage. Cette procédure nécessite plusieurs étapes telles que la description du comportement d'un objet en vol libre sous la forme d'un modèle non linéaire en représentation d'état, la description polynomiale des coefficients aérodynamiques en fonction du nombre de Mach et de l'incidence, les analyses d'identifiabilité a priori et a posteriori suivies de l'estimation des paramètres. De plus, dans le but d'augmenter la probabilité que les coefficients caractérisent l'aérodynamique de l'objet pour l'ensemble des conditions d'essais et d'améliorer la précision des coefficients estimés, une stratégie "multiple fit" a été appliquée. Cette approche fournit une base de données de coefficients aérodynamiques, qui sont déterminés à partir de plusieurs séries de mesures analysées simultanément, afin de décrire le spectre le plus complet du mouvement de l'objet
The use of aerodynamic coefficients for the characterization of the behaviour of an object in flight remains one of the oldest and most emergent research project in the field of exterior ballistic. The present study investigates the identification of the aerodynamic coefficients based on measured data, gathered during free flight tests from different measurement techniques. This project deals with topics as modelling, defining and mastering parameter identification techniques best suited to the problem of the aerodynamic coefficients determination. In the frame of this study, an identification procedure was developed for the aerodynamic coefficients determination based on free flight measurements and was tested for two application cases: a re-entry space vehicle and a fin stabilized reference projectile. This procedure requires several steps such as the description of the behaviour of the vehicle in free flight as a nonlinear state-space model representation, the polynomial descriptions of the aerodynamic coefficients as function of Mach number and incidence, the a priori and a posteriori identifiability analyses, followed by the estimation of the parameters from free flight measurements. Moreover, to increase the probability that the coefficients define the vehicle’s aerodynamics over the entire range of test conditions and to improve the accuracy of the estimated coefficients, a multiple fit strategy was considered. This approach provides a common set of aerodynamic coefficients that are determined from multiple data series simultaneously analyzed, and gives a more complete spectrum of the vehicle’s motion
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Vo-Van, Claudine. "Analyse de données pharmacocinétiques fragmentaires : intégration dans le développement de nouvelles molécules". Paris 5, 1994. http://www.theses.fr/1994PA05P044.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Bureik, Jan-Philipp. "Number statistics and momentum correlations in interacting Bose gases". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP014.

Texto completo
Resumen
Ce travail de thèse est dédié à l'étude des statistiques du nombre et corrélations en impulsion dans des gaz de Bose sur réseaux interagissants. Le modèle de Bose-Hubbard est simulé en chargeant des condensats de Bose-Einstein (BEC) d'atomes d'Hélium-4 métastables dans un réseau optique tridimensionnel (3D). Ce modèle présente une transition de phase quantique d'un superfluide à un isolant de Mott induite par des fluctuations quantiques provoquées par l'interaction. L'objectif de ce travail est de comprendre le rôle de ces fluctuations quantiques en analysant leurs signatures dans l'espace des impulsions. Le schéma de détection original utilisé à cette fin fournit la distribution d'impulsion résolue à l'échelle de l'atome unique en 3D. À partir de ces jeux de données composés de milliers d'atomes individuels, les statistiques du nombre d'occupation de différents sous-volumes de l'espace des impulsions fournissent des informations sur les propriétés de corrélation ou de cohérence du gaz de Bose interagissant. À impulsions proches, ces probabilités d'occupation permettent l'identification de statistiques d'état pur sous-jacentes dans le cas d'états many-body classiques tels que les superfluides en réseau et les isolants de Mott. Dans le régime faiblement interagissant, des corrélations bien établies entre les paires d'atomes à impulsions opposées sont observées. De plus, on constate que ces corrélations entre paires diminuent en faveur de corrélations plus complexes entre plus de deux particules lorsque les interactions sont augmentées. Une observation directe de corrélations non-Gaussiennes encapsule la nature statistique complexe des superfluides fortement interagissants bien en amont de la transition de phase vers l'isolant de Mott. Enfin, lors de la transition de phase, on constate une augmentation des fluctuations du nombre d'occupation du mode du BEC, constituant une signature directe des fluctuations quantiques induisant la transition. Des quantités indépendantes de la taille du système, telles que le cumulant de Binder, présentent des variations abruptes même dans un système de taille finie et semblent prometteuses pour constituer des observables appropriés permettant de déterminer le comportement universel lorsqu'elles sont mesurées dans un système homogène
This thesis work is dedicated to the study of number statistics and momentum correlations in interacting lattice Bose gases. The Bose-Hubbard model is simulated by loading Bose-Einstein condensates (BECs) of metastable Helium-4 atoms into a three-dimensional (3D) optical lattice. This model exhibits a quantum phase transition from a superfluid to a Mott insulator that is driven by interaction-induced quantum fluctuations. The objective of this work is to comprehend the role of these quantum fluctuations by analyzing their signatures in momentum space. The original detection scheme employed towards this aim provides the single-particle resolved momentum distribution of the atoms in 3D. From such datasets made up of thousands of individual atoms, the number statistics of occupation of different sub-volumes of momentum space yield information about correlation or coherence properties of the interacting Bose gas. At close-by momenta these occupation probabilities permit the identification of underlying pure-state statistics in the case of textbook many-body states such as lattice superfluids and Mott insulators. In the weakly-interacting regime, well-established correlations between pairs of atoms at opposite momenta are observed. Furthermore, these pair correlations are found to decrease in favor of more intricate correlations between more than two particles as interactions are increased. A direct observation of non-Gaussian correlations encapsulates the complex statistical nature of strongly-interacting superfluids well before the Mott insulator phase transition. Finally, at the phase transition, fluctuations of the occupation number of the BEC mode are found to be enhanced, constituting a direct signature of the quantum fluctuations driving the transition. System-size independent quantities such as the Binder cumulant are shown to exhibit distinctive sharp features even in a finite-size system, and hold promise for constituting suitable observables for determining universal behavior when measured in a homogeneous system
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Albisser, Marie. "Identification of aerodynamic coefficients from free flight data". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0083/document.

Texto completo
Resumen
L'utilisation des coefficients aérodynamiques pour caractériser le comportement d'un objet en vol libre demeure un sujet de recherche parmi les plus complexes et les plus étudiés dans le domaine de la balistique extérieure. La présente étude analyse l'identification des coefficients aérodynamiques à partir de données obtenues lors d'essais en vol libre. Elle vise à modéliser, définir ainsi que maîtriser les techniques d'identification de paramètres les plus adaptées au problème qu'est la détermination des coefficients aérodynamiques. Le travail de thèse a été dédié au développement d'une procédure d'identification pour la détermination des coefficients aérodynamiques à partir de mesures de vol libre et a été testée pour deux cas d'application : un corps de rentrée dans l'atmosphère et un projectile stabilisé par empennage. Cette procédure nécessite plusieurs étapes telles que la description du comportement d'un objet en vol libre sous la forme d'un modèle non linéaire en représentation d'état, la description polynomiale des coefficients aérodynamiques en fonction du nombre de Mach et de l'incidence, les analyses d'identifiabilité a priori et a posteriori suivies de l'estimation des paramètres. De plus, dans le but d'augmenter la probabilité que les coefficients caractérisent l'aérodynamique de l'objet pour l'ensemble des conditions d'essais et d'améliorer la précision des coefficients estimés, une stratégie "multiple fit" a été appliquée. Cette approche fournit une base de données de coefficients aérodynamiques, qui sont déterminés à partir de plusieurs séries de mesures analysées simultanément, afin de décrire le spectre le plus complet du mouvement de l'objet
The use of aerodynamic coefficients for the characterization of the behaviour of an object in flight remains one of the oldest and most emergent research project in the field of exterior ballistic. The present study investigates the identification of the aerodynamic coefficients based on measured data, gathered during free flight tests from different measurement techniques. This project deals with topics as modelling, defining and mastering parameter identification techniques best suited to the problem of the aerodynamic coefficients determination. In the frame of this study, an identification procedure was developed for the aerodynamic coefficients determination based on free flight measurements and was tested for two application cases: a re-entry space vehicle and a fin stabilized reference projectile. This procedure requires several steps such as the description of the behaviour of the vehicle in free flight as a nonlinear state-space model representation, the polynomial descriptions of the aerodynamic coefficients as function of Mach number and incidence, the a priori and a posteriori identifiability analyses, followed by the estimation of the parameters from free flight measurements. Moreover, to increase the probability that the coefficients define the vehicle’s aerodynamics over the entire range of test conditions and to improve the accuracy of the estimated coefficients, a multiple fit strategy was considered. This approach provides a common set of aerodynamic coefficients that are determined from multiple data series simultaneously analyzed, and gives a more complete spectrum of the vehicle’s motion
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Grigolon, Silvia. "Modelling and inference for biological systems : from auxin dynamics in plants to protein sequences". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112178/document.

Texto completo
Resumen
Tous les systèmes biologiques sont formés d’atomes et de molécules qui interagissent et dont émergent des propriétés subtiles et complexes. Par ces interactions, les organismes vivants peuvent subvenir à toutes leurs fonctions vitales. Ces propriétés apparaissent dans tous les systèmes biologiques à des niveaux différents, du niveau des molécules et gènes jusqu’aux niveau des cellules et tissus. Ces dernières années, les physiciens se sont impliqués dans la compréhension de ces aspects particulièrement intrigants, en particulier en étudiant les systèmes vivants dans le cadre de la théorie des réseaux, théorie qui offre des outils d’analyse très puissants. Il est possible aujourd’hui d’identifier deux classes d’approches qui sont utilisée pour étudier ces types de systèmes complexes : les méthodes directes de modélisation et les approches inverses d’inférence. Dans cette thèse, mon travail est basé sur les deux types d’approches appliquées à trois niveaux de systèmes biologiques. Dans la première partie de la thèse, je me concentre sur les premières étapes du développement des tissus biologiques des plantes. Je propose un nouveau modèle pour comprendre la dynamique collective des transporteurs de l’hormone auxine et qui permet la croissance non-homogène des tissu dans l’espace et le temps. Dans la deuxième partie de la thèse, j’analyse comment l’évolution contraint la diversité́ de séquence des protéines tout en conservant leur fonction dans différents organismes. En particulier, je propose une nouvelle méthode pour inférer les sites essentiels pour la fonction ou la structure de protéines à partir d’un ensemble de séquences biologiques. Finalement, dans la troisième partie de la thèse, je travaille au niveau cellulaire et étudie les réseaux de signalisation associés à l’auxine. Dans ce contexte, je reformule un modèle préexistant et propose une nouvelle technique qui permet de définir et d’étudier la réponse du système aux signaux externes pour des topologies de réseaux différentes. J’exploite ce cadre théorique pour identifier le rôle fonctionnel de différentes topologies dans ces systèmes
All biological systems are made of atoms and molecules interacting in a non- trivial manner. Such non-trivial interactions induce complex behaviours allow- ing organisms to fulfill all their vital functions. These features can be found in all biological systems at different levels, from molecules and genes up to cells and tissues. In the past few decades, physicists have been paying much attention to these intriguing aspects by framing them in network approaches for which a number of theoretical methods offer many powerful ways to tackle systemic problems. At least two different ways of approaching these challenges may be considered: direct modeling methods and approaches based on inverse methods. In the context of this thesis, we made use of both methods to study three different problems occurring on three different biological scales. In the first part of the thesis, we mainly deal with the very early stages of tissue development in plants. We propose a model aimed at understanding which features drive the spontaneous collective behaviour in space and time of PINs, the transporters which pump the phytohormone auxin out of cells. In the second part of the thesis, we focus instead on the structural properties of proteins. In particular we ask how conservation of protein function across different organ- isms constrains the evolution of protein sequences and their diversity. Hereby we propose a new method to extract the sequence positions most relevant for protein function. Finally, in the third part, we study intracellular molecular networks that implement auxin signaling in plants. In this context, and using extensions of a previously published model, we examine how network structure affects network function. The comparison of different network topologies provides insights into the role of different modules and of a negative feedback loop in particular. Our introduction of the dynamical response function allows us to characterize the systemic properties of the auxin signaling when external stimuli are applied
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Fouchet, Arnaud. "Kernel methods for gene regulatory network inference". Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0058/document.

Texto completo
Resumen
De nouvelles technologies, notamment les puces à adn, multiplient la quantité de données disponibles pour la biologie moléculaire. dans ce contexte, des méthodes informatiques et mathématiques sont activement développées pour extraire le plus d'information d'un grand nombre de données. en particulier, le problème d'inférence de réseaux de régulation génique a été abordé au moyen de multiples modèles mathématiques et statistiques, des plus basiques (corrélation, modèle booléen ou linéaire) aux plus sophistiqués (arbre de régression, modèles bayésiens avec variables cachées). malgré leurs qualités pour des problèmes similaires, les modèles à noyaux ont été peu utilisés pour l'inférence de réseaux de régulation génique. en effet, ces méthodes fournissent en général des modèles difficiles a interpréter. dans cette thèse, nous avons développé deux façons d'obtenir des méthodes à noyaux interprétables. dans un premier temps, d'un point de vue théorique, nous montrons que les méthodes à noyaux permettent d'estimer, a partir d'un ensemble d'apprentissage, une fonction de transition et ses dérivées partielles de façon consistante. ces estimations de dérivées partielles permettent, sur des exemples réalistes, de mieux identifier le réseau de régulation génique que des méthodes standards. dans un deuxième temps, nous développons une méthode à noyau interprétable grâce à l'apprentissage à noyaux multiples. ce modèle fournit des résultats du niveau de l'état de l'art sur des réseaux réels et des réseaux simulés réalistes
New technologies in molecular biology, in particular dna microarrays, have greatly increased the quantity of available data. in this context, methods from mathematics and computer science have been actively developed to extract information from large datasets. in particular, the problem of gene regulatory network inference has been tackled using many different mathematical and statistical models, from the most basic ones (correlation, boolean or linear models) to the most elaborate (regression trees, bayesian models with latent variables). despite their qualities when applied to similar problems, kernel methods have scarcely been used for gene network inference, because of their lack of interpretability. in this thesis, two approaches are developed to obtain interpretable kernel methods. firstly, from a theoretical point of view, some kernel methods are shown to consistently estimate a transition function and its partial derivatives from a learning dataset. these estimations of partial derivatives allow to better infer the gene regulatory network than previous methods on realistic gene regulatory networks. secondly, an interpretable kernel methods through multiple kernel learning is presented. this method, called lockni, provides state-of-the-art results on real and realistically simulated datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Chion, Marie. "Développement de nouvelles méthodologies statistiques pour l'analyse de données de protéomique quantitative". Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAD025.

Texto completo
Resumen
L’analyse protéomique consiste à étudier l’ensemble des protéines exprimées par un système biologique donné, à un moment donné et dans des conditions données. Les récents progrès technologiques en spectrométrie de masse et en chromatographie liquide permettent d’envisager aujourd’hui des études protéomiques à large échelle et à haut débit. Ce travail de thèse porte sur le développement de méthodologies statistiques pour l’analyse des données de protéomique quantitative et présente ainsi trois principales contributions. La première partie propose d’utiliser des modèles de régression par spline monotone pour estimer les quantités de tous les peptides détectés dans un échantillon grâce à l'utilisation de standards internes marqués pour un sous-ensemble de peptides ciblés. La deuxième partie présente une stratégie de prise en compte de l’incertitude induite par le processus d’imputation multiple dans l’analyse différentielle, également implémentée dans le package R mi4p. Enfin, la troisième partie propose un cadre bayésien pour l’analyse différentielle, permettant notamment de tenir compte des corrélations entre les intensités des peptides
Proteomic analysis consists of studying all the proteins expressed by a given biological system, at a given time and under given conditions. Recent technological advances in mass spectrometry and liquid chromatography make it possible to envisage large-scale and high-throughput proteomic studies.This thesis work focuses on developing statistical methodologies for the analysis of quantitative proteomics data and thus presents three main contributions. The first part proposes to use monotone spline regression models to estimate the amounts of all peptides detected in a sample using internal standards labelled for a subset of targeted peptides. The second part presents a strategy to account for the uncertainty induced by the multiple imputation process in the differential analysis, also implemented in the mi4p R package. Finally, the third part proposes a Bayesian framework for differential analysis, making it notably possible to consider the correlations between the intensities of peptides
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Bouatou, Mohamed. "Estimation non linéaire par ondelettes : régression et survie". Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004921.

Texto completo
Resumen
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Soudain-Pineau, Mickaël. "Statistiques appliquées à la physiologie du sport dans l’exploration des variables influençant la performance chez les cyclistes". Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000981.pdf.

Texto completo
Resumen
Tout d’abord, nous avons étudié une population de 112 cyclistes réparties en trois niveaux amateurs. Ces sujets ont réalisé un test incrémental par palier de trois minutes. Des variables anthropométriques ainsi que physiologiques et physiques ont été étudiées à deux moments, au seuil lactique et au maximum de la pour chaque individu. Nous avons utilisé l’analyse discriminante pour obtenir au seuil lactique une fonction discriminante linéaire et à max une fonction discriminante quadratique composées des variables les plus discriminantes. Ensuite, pour 213 cyclistes professionnels, nous avions les valeurs de plusieurs hormones avant et après un test incrémental. Nous disposions également de paramètres physiques et physiologiques pour chaque athlète. Nous avons étudié le comportement de ces hormones et l’influence des paramètres physiques et physiologiques sur les valeurs « hors normes ». La régression multiple a permis d’établir un modèle linéaire composé des paramètres les plus significatifs expliquant la puissance. Il s’agit des variables : Taille, Ventilation anaérobie, Fréquence cardiaque anaérobie, Testostérone libre avant effort, Âge, LH avant effort, Prolactine avant effort et max. Enfin l’étude de la lactatémie prélevée lors d’un exercice incrémental et jusqu’à 10 minutes après l’effort chez une population de cyclistes professionnels a permis, avec l’aide d’un modèle existant, de modéliser le comportement du lactate sanguin. Cette fonction décrivant l’évolution du lactate sanguin pendant toute la durée de l’effort permet d’effectuer une simulation sur le retour à un niveau basal
First, we studied a population of 112 cyclists divided into three levels amateurs. These subjects carried out an incremental test by three minute old stage. Anthropometric variables like physiological and physical were studied at two times, at the lactic threshold and at the maximum of the for each individual. We used discriminant analysis to obtain with the lactic threshold a linear discriminant function and in max a quadratic discriminant function made up of the most significant variables. Then, for 213 professional cyclists, we had the values of several hormones before and after an incremental test. We also had physical and physiological parameters for each athlete. We studied the behavior of these hormones and the impact of the physical and physiological parameters on the excepted values. The multiple regression analysis allowed to establish a linear model made up of the most significant parameters explaining the power. Finally, the study of the lactatemy taken at an incremental exercise and for 10 minutes after exercice for a population of professional cyclists allowed, using an existing model, to modeling the blood lactate reaction. This function describing the blood lactate evolution throughout all exercice duration allow to carry out a simulation on the return to a basal level
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Slaoui, Meryem. "Analyse stochastique et inférence statistique des solutions d’équations stochastiques dirigées par des bruits fractionnaires gaussiens et non gaussiens". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I079.

Texto completo
Resumen
Cette thèse est consacrée à l'étude des solutions d'équations différentielles stochastiques dirigées par des bruits fractionnaires gaussiens et non gaussiens. Les bruits fractionnaires considérés sont modélisés par les processus d'Hermite qui forment une famille de processus stochastiques autosimilaires, à accroissements stationnaires et qui sont représentés par des intégrales stochastiques multiples de Wiener-Itô. Dans un premier travail, nous étudions la solution de l'équation stochastique de la chaleur linéaire dirigée par un champ d'Hermite. Nous établissons les différentes propriétés de la solution mild et analysons en particulier sa distribution en probabilité dans le cas non gaussien. La deuxième partie de cette thèse concerne le comportement asymptotique des solutions d'équations stochastiques lorsque l'exposant de Hurst H qui caractérise le bruit fractionnaire converge vers ses valeurs limites. Nous étudions en particulier le comportement en loi de la solution de l'équation de la chaleur stochastique dirigée par un champ d'Hermite et le processus d'Ornstein-Uhlenbeck type Hermite qui est la solution de l'équation de Langevin dirigée par un processus d'Hermite. Dans la dernière partie de ce travail, nous analysons le comportement asymptotique en loi des variations généralisées de la solution de l'équation stochastique des ondes dirigée par un bruit gaussien fractionnaire. Ces résultats ont permis de construire des estimateurs consistants pour l'indice d’autosimilarite H
This doctoral thesis is devoted to the study of the solutions of stochastic differential equations driven by additive Gaussian and non-Gaussian noises. As a non-Gaussian driving noise, we use the Hermite processes. These processes form a family of self-similar stochastic processes with stationary increments and long memory and they can be expressed as multiple Wiener-Itô integrals. The class of Hermite processes includes the well-known fractional Brownian motion which is the only Gaussian Hermite process, and the Rosenblatt process. In a first chapter, we consider the solution to the linear stochastic heat equation driven by a multiparameter Hermite process of any order and with Hurst multi-index H. We study the existence and establish various properties of its mild solution. We discuss also its probability distribution in the non-Gaussian case. The second part deals with the asymptotic behavior in distribution of solutions to stochastic equations when the Hurst parameter converges to the boundary of its interval of definition. We focus on the case of the Hermite Ornstein-Uhlenbeck process, which is the solution of the Langevin equation driven by the Hermite process, and on the case of the solution to the stochastic heat equation with additive Hermite noise. These results show that the obtained limits cover a large class of probability distributions, from Gaussian laws to distribution of random variables in a Wiener chaos of higher order. In the last chapter, we consider the stochastic wave equation driven by an additive Gaussian noise which behaves as a fractional Brownian motion in time and as a Wiener process in space. We show that the sequence of generalized variations satisfies a Central Limit Theorem and we estimate the rate of convergence via the Stein-Malliavin calculus. The results are applied to construct several consistent estimators of the Hurst index
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Rossetto-Giaccherino, Vincent. "Mécanique statistique de systèmes sous contraintes : topologie de l'ADN et simulations électrostatiques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2002. http://tel.archives-ouvertes.fr/tel-00002205.

Texto completo
Resumen
Nous étudions la géométrie d'une molécule d'ADN ouverte soumise à une contrainte de supertour. Nous redémontrons le théorème de Cãlugãreanu-White qui relie cette contrainte globale à la torsion locale. Le modèle de la tige élastique, utilisant la formule de Fuller, conduit à une divergence dans la limite continue. Cette pathologie est étudiée à l'aide de simulations numériques. Une analogie entre la forme d'un polymère et la trajectoire d'un rayon lumineux en diffusion multiple permet d'interpréter des expériences de diffusion de la lumière polarisée en termes géométriques. Dans le seconde partie, nous étudions la simulation numérique locale des systèmes chargés en interaction coulombienne. On présente les techniques usuelles de simulations numériques dont on discute les avantages et les inconvénients. Nous présentons un nouvel algorithme pour ces systèmes basé sur la loi de Gauss. Sa résolution rigoureuse conduit à ajouter un terme transverse au champ électrique que l'on fait évoluer par un algorithme de Monte-Carlo. La localité de l'algorithme permet un traitement rigoureux des inhomogénéités diélectriques et conduit à une complexité en O(N).
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Somé, Sobom Matthieu. "Estimations non paramétriques par noyaux associés multivariés et applications". Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2030/document.

Texto completo
Resumen
Dans ce travail, l'approche non-paramétrique par noyaux associés mixtes multivariés est présentée pour les fonctions de densités, de masse de probabilité et de régressions à supports partiellement ou totalement discrets et continus. Pour cela, quelques aspects essentiels des notions d'estimation par noyaux continus (dits classiques) multivariés et par noyaux associés univariés (discrets et continus) sont d'abord rappelés. Les problèmes de supports sont alors révisés ainsi qu'une résolution des effets de bords dans les cas des noyaux associés univariés. Le noyau associé multivarié est ensuite défini et une méthode de leur construction dite mode-dispersion multivarié est proposée. Il s'ensuit une illustration dans le cas continu utilisant le noyau bêta bivarié avec ou sans structure de corrélation de type Sarmanov. Les propriétés des estimateurs telles que les biais, les variances et les erreurs quadratiques moyennes sont également étudiées. Un algorithme de réduction du biais est alors proposé et illustré sur ce même noyau avec structure de corrélation. Des études par simulations et applications avec le noyau bêta bivarié avec structure de corrélation sont aussi présentées. Trois formes de matrices des fenêtres, à savoir, pleine, Scott et diagonale, y sont utilisées puis leurs performances relatives sont discutées. De plus, des noyaux associés multiples ont été efficaces dans le cadre de l'analyse discriminante. Pour cela, on a utilisé les noyaux univariés binomial, catégoriel, triangulaire discret, gamma et bêta. Par la suite, les noyaux associés avec ou sans structure de corrélation ont été étudiés dans le cadre de la régression multiple. En plus des noyaux univariés ci-dessus, les noyaux bivariés avec ou sans structure de corrélation ont été aussi pris en compte. Les études par simulations montrent l'importance et les bonnes performances du choix des noyaux associés multivariés à matrice de lissage pleine ou diagonale. Puis, les noyaux associés continus et discrets sont combinés pour définir les noyaux associés mixtes univariés. Les travaux ont aussi donné lieu à la création d'un package R pour l'estimation de fonctions univariés de densités, de masse de probabilité et de régression. Plusieurs méthodes de sélections de fenêtres optimales y sont implémentées avec une interface facile d'utilisation. Tout au long de ce travail, la sélection des matrices de lissage se fait généralement par validation croisée et parfois par les méthodes bayésiennes. Enfin, des compléments sur les constantes de normalisations des estimateurs à noyaux associés des fonctions de densité et de masse de probabilité sont présentés
This work is about nonparametric approach using multivariate mixed associated kernels for densities, probability mass functions and regressions estimation having supports partially or totally discrete and continuous. Some key aspects of kernel estimation using multivariate continuous (classical) and (discrete and continuous) univariate associated kernels are recalled. Problem of supports are also revised as well as a resolution of boundary effects for univariate associated kernels. The multivariate associated kernel is then defined and a construction by multivariate mode-dispersion method is provided. This leads to an illustration on the bivariate beta kernel with Sarmanov's correlation structure in continuous case. Properties of these estimators are studied, such as the bias, variances and mean squared errors. An algorithm for reducing the bias is proposed and illustrated on this bivariate beta kernel. Simulations studies and applications are then performed with bivariate beta kernel. Three types of bandwidth matrices, namely, full, Scott and diagonal are used. Furthermore, appropriated multiple associated kernels are used in a practical discriminant analysis task. These are the binomial, categorical, discrete triangular, gamma and beta. Thereafter, associated kernels with or without correlation structure are used in multiple regression. In addition to the previous univariate associated kernels, bivariate beta kernels with or without correlation structure are taken into account. Simulations studies show the performance of the choice of associated kernels with full or diagonal bandwidth matrices. Then, (discrete and continuous) associated kernels are combined to define mixed univariate associated kernels. Using the tools of unification of discrete and continuous analysis, the properties of the mixed associated kernel estimators are shown. This is followed by an R package, created in univariate case, for densities, probability mass functions and regressions estimations. Several smoothing parameter selections are implemented via an easy-to-use interface. Throughout the paper, bandwidth matrix selections are generally obtained using cross-validation and sometimes Bayesian methods. Finally, some additionnal informations on normalizing constants of associated kernel estimators are presented for densities or probability mass functions
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Friguet, Chloé. "Impact de la dépendance dans les procédures de tests multiples en grande dimension". Phd thesis, Agrocampus - Ecole nationale supérieure d'agronomie de rennes, 2010. http://tel.archives-ouvertes.fr/tel-00539741.

Texto completo
Resumen
Motivé par des applications dans le domaine de l'analyse de données génomiques, ce travail de thèse porte sur l'étude de l'impact de la dépendance sur les propriétés des procédures de tests multiples en grande dimension. Notre proposition consiste à considérer un modèle d'Analyse en Facteurs pour la structure de dépendance entre les variables. Un algorithme de type EM est présenté pour estimer les paramètres du modèle ainsi qu'une méthode ad hoc pour déterminer le nombre optimal de facteurs à inclure dans le modèle. De plus, ce modèle définit un cadre général pour la prise en compte de la dépendance dans les procédures de tests multiples. L'estimation du taux de faux-positifs (FDR) et de la proportion d'hypothèses nulles, paramètre important qui intervient dans le contrôle des taux d'erreurs, sont étudiés plus particulièrement. Ainsi, on montre que la dépendance entre tests entraîne une instabilité des procédures d'inférence simultanée. Une nouvelle approche est présentée : l'objectif est de réduire cette dépendance, procurant à la fois une augmentation de la puissance des tests et une diminution de la variabilité des taux d'erreurs. Enfin, ces résultats méthodologiques sont illustrés à partir de données génomiques et la procédure est implémentée dans le logiciel libre R au sein du package FAMT.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Friguet, Chloé. "Impact de la dépendance dans les procédures de tests multiples en grande dimension". Phd thesis, Rennes, Agrocampus Ouest, 2010. http://www.theses.fr/2008NSARG007.

Texto completo
Resumen
Motivé par des applications dans le domaine de l'analyse de données génomiques, ce travail de thèse porte sur l'étude de l'impact de la dépendance sur les propriétés des procédures de tests multiples en grande dimension. Notre proposition consiste à considérer un modèle d'Analyse en Facteurs pour la structure de dépendance entre les variables. Un algorithme de type EM est présenté pour estimer les paramètres du modèle ainsi qu'une méthode ad hoc pour déterminer le nombre optimal de facteurs à inclure dans le modèle. De plus, ce modèle définit un cadre général pour la prise en compte de la dépendance dans les procédures de tests multiples. L'estimation du taux de faux-positifs (FDR) et de la proportion d'hypothèses nulles (_0), paramètre important qui intervient dans le contrôle des taux d'erreurs, sont étudiés plus particulièrement. Ainsi, on montre que la dépendance entre tests entraîne une instabilité des procédures d'inférence simultanée. Une nouvelle approche est présentée : l'objectif est de réduire cette dépendance, procurant à la fois une augmentation de la puissance des tests et une diminution de la variabilité des taux d'erreurs. Efin, ces résultats méthodologiques sont illustrés à partir de données génomiques et la procédure est implémentée dans le logiciel libre R au sein du package FAMT
Motivated by issues raised by the analysis of gene expressions data, this thesis focuses on the impact of dependence on the properties of multiple testing procedures for high-dimensional data. We propose a methodology based on a Factor Analysis model for the correlation structure. Model parameters are estimated thanks to an EM algorithm and an ad hoc methodology allowing to determine the model that fits best the covariance structure is defined. Moreover, the factor structure provides a general framework to deal with dependence in multiple testing. Two main issues are more particularly considered : the estimation of _0, the proportion of true null hypotheses, and the control of error rates. The proposed framework leads to less variability in the estimation of both _0 and the number of false-positives. Consequently, it shows large improvements of power and stability of simultaneous inference with respect to existing multiple testing procedures. These results are illustrated by real data from microarray experiments and the proposed methodology is implemented in a R package called FAMT
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Moreno, Betancur Margarita. "Regression modeling with missing outcomes : competing risks and longitudinal data". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T076/document.

Texto completo
Resumen
Les données manquantes sont fréquentes dans les études médicales. Dans les modèles de régression, les réponses manquantes limitent notre capacité à faire des inférences sur les effets des covariables décrivant la distribution de la totalité des réponses prévues sur laquelle porte l'intérêt médical. Outre la perte de précision, toute inférence statistique requière qu'une hypothèse sur le mécanisme de manquement soit vérifiée. Rubin (1976, Biometrika, 63:581-592) a appelé le mécanisme de manquement MAR (pour les sigles en anglais de « manquant au hasard ») si la probabilité qu'une réponse soit manquante ne dépend pas des réponses manquantes conditionnellement aux données observées, et MNAR (pour les sigles en anglais de « manquant non au hasard ») autrement. Cette distinction a des implications importantes pour la modélisation, mais en général il n'est pas possible de déterminer si le mécanisme de manquement est MAR ou MNAR à partir des données disponibles. Par conséquent, il est indispensable d'effectuer des analyses de sensibilité pour évaluer la robustesse des inférences aux hypothèses de manquement.Pour les données multivariées incomplètes, c'est-à-dire, lorsque l'intérêt porte sur un vecteur de réponses dont certaines composantes peuvent être manquantes, plusieurs méthodes de modélisation sous l'hypothèse MAR et, dans une moindre mesure, sous l'hypothèse MNAR ont été proposées. En revanche, le développement de méthodes pour effectuer des analyses de sensibilité est un domaine actif de recherche. Le premier objectif de cette thèse était de développer une méthode d'analyse de sensibilité pour les données longitudinales continues avec des sorties d'étude, c'est-à-dire, pour les réponses continues, ordonnées dans le temps, qui sont complètement observées pour chaque individu jusqu'à la fin de l'étude ou jusqu'à ce qu'il sorte définitivement de l'étude. Dans l'approche proposée, on évalue les inférences obtenues à partir d'une famille de modèles MNAR dits « de mélange de profils », indexés par un paramètre qui quantifie le départ par rapport à l'hypothèse MAR. La méthode a été motivée par un essai clinique étudiant un traitement pour le trouble du maintien du sommeil, durant lequel 22% des individus sont sortis de l'étude avant la fin.Le second objectif était de développer des méthodes pour la modélisation de risques concurrents avec des causes d'évènement manquantes en s'appuyant sur la théorie existante pour les données multivariées incomplètes. Les risques concurrents apparaissent comme une extension du modèle standard de l'analyse de survie où l'on distingue le type d'évènement ou la cause l'ayant entrainé. Les méthodes pour modéliser le risque cause-spécifique et la fonction d'incidence cumulée supposent en général que la cause d'évènement est connue pour tous les individus, ce qui n'est pas toujours le cas. Certains auteurs ont proposé des méthodes de régression gérant les causes manquantes sous l'hypothèse MAR, notamment pour la modélisation semi-paramétrique du risque. Mais d'autres modèles n'ont pas été considérés, de même que la modélisation sous MNAR et les analyses de sensibilité. Nous proposons des estimateurs pondérés et une approche par imputation multiple pour la modélisation semi-paramétrique de l'incidence cumulée sous l'hypothèse MAR. En outre, nous étudions une approche par maximum de vraisemblance pour la modélisation paramétrique du risque et de l'incidence sous MAR. Enfin, nous considérons des modèles de mélange de profils dans le contexte des analyses de sensibilité. Un essai clinique étudiant un traitement pour le cancer du sein de stade II avec 23% des causes de décès manquantes sert à illustrer les méthodes proposées
Missing data are a common occurrence in medical studies. In regression modeling, missing outcomes limit our capability to draw inferences about the covariate effects of medical interest, which are those describing the distribution of the entire set of planned outcomes. In addition to losing precision, the validity of any method used to draw inferences from the observed data will require that some assumption about the mechanism leading to missing outcomes holds. Rubin (1976, Biometrika, 63:581-592) called the missingness mechanism MAR (for “missing at random”) if the probability of an outcome being missing does not depend on missing outcomes when conditioning on the observed data, and MNAR (for “missing not at random”) otherwise. This distinction has important implications regarding the modeling requirements to draw valid inferences from the available data, but generally it is not possible to assess from these data whether the missingness mechanism is MAR or MNAR. Hence, sensitivity analyses should be routinely performed to assess the robustness of inferences to assumptions about the missingness mechanism. In the field of incomplete multivariate data, in which the outcomes are gathered in a vector for which some components may be missing, MAR methods are widely available and increasingly used, and several MNAR modeling strategies have also been proposed. On the other hand, although some sensitivity analysis methodology has been developed, this is still an active area of research. The first aim of this dissertation was to develop a sensitivity analysis approach for continuous longitudinal data with drop-outs, that is, continuous outcomes that are ordered in time and completely observed for each individual up to a certain time-point, at which the individual drops-out so that all the subsequent outcomes are missing. The proposed approach consists in assessing the inferences obtained across a family of MNAR pattern-mixture models indexed by a so-called sensitivity parameter that quantifies the departure from MAR. The approach was prompted by a randomized clinical trial investigating the benefits of a treatment for sleep-maintenance insomnia, from which 22% of the individuals had dropped-out before the study end. The second aim was to build on the existing theory for incomplete multivariate data to develop methods for competing risks data with missing causes of failure. The competing risks model is an extension of the standard survival analysis model in which failures from different causes are distinguished. Strategies for modeling competing risks functionals, such as the cause-specific hazards (CSH) and the cumulative incidence function (CIF), generally assume that the cause of failure is known for all patients, but this is not always the case. Some methods for regression with missing causes under the MAR assumption have already been proposed, especially for semi-parametric modeling of the CSH. But other useful models have received little attention, and MNAR modeling and sensitivity analysis approaches have never been considered in this setting. We propose a general framework for semi-parametric regression modeling of the CIF under MAR using inverse probability weighting and multiple imputation ideas. Also under MAR, we propose a direct likelihood approach for parametric regression modeling of the CSH and the CIF. Furthermore, we consider MNAR pattern-mixture models in the context of sensitivity analyses. In the competing risks literature, a starting point for methodological developments for handling missing causes was a stage II breast cancer randomized clinical trial in which 23% of the deceased women had missing cause of death. We use these data to illustrate the practical value of the proposed approaches
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Oulad, Ameziane Mehdi. "Amélioration de l'exploration de l'espace d'état dans les méthodes de Monte Carlo séquentielles pour le suivi visuel". Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0007.

Texto completo
Resumen
Le suivi visuel constitue une tâche essentielle en vision par ordinateur. Les approches Bayésiennes sont largement utilisées aujourd’hui pour résoudre la problématique du suivi visuel. Notamment grâce aux possibilités offertes par les méthodes de Monte Carlo séquentielles (SMC) qui prennent en comptes les incertitudes du model et s’adaptent à des scenarios variés. L’efficacité des méthodes SMC dépend fortement du choix de la loi de proposition qui permet d’explorer l’espace d’état.Dans cette thèse, nous cherchons à améliorer l’exploration de l’espace d’état en approchant la loi de proposition optimale. Cette loi de proposition quasi-optimale repose sur une approximation de la fonction de vraisemblance, et ce en utilisant une information de détection souple qui est à la foi plus fiable et moins couteuse à calculer. En comparaison avec les travaux antérieurs sur le sujet, notre loi de proposition quasi-optimale offre un bon compromis entre l’optimalité et la complexité algorithmique. Améliorer l’exploration de l’espace d’état est nécessaire principalement dans deux applications du suivi visuel : Le suivi des mouvements abrupts et le suivi multi objet. Dans le cadre de cette thèse on a souligné la capacité des méthodes SMC quasi-optimales à traiter les mouvements abrupts, en les comparants aux méthodes proposées dans la littérature spécifiquement pour ce type de scenario. Aussi, on a étendu notre loi de proposition quasi-optimale pour le suivi multi objet et nous en avons démontré l’intérêt. Par ailleurs, on a implémenté le filtre particulaire Local qui partitionne l’espace d’état en sous-espaces indépendants de taille inférieure tout en modélisant des interactions
In computer vision applications, visual tracking is an important and a fundamental task. Solving the tracking problematic based on a statistical formulation in the Bayesian framework has gained great interest in recent years due to the capabilities of the sequential Monte Carlo (SMC) methods to adapt to various tracking schemes and to take into account model uncertainties. In practice, the efficiency of SMC methods strongly depends on the proposal density used to explore the state space, thus the choice of the proposal is essential. In the thesis, our approach to efficiently explore the state space aims to derive a close approximation of the optimal proposal. The proposed near optimal proposal relies on an approximation of the likelihood using a new form of likelihood based on soft detection information which is more trustworthy and requires less calculations than the usual likelihood. In comparison with previous works, our near optimal proposal offers a good compromise between computational complexity and optimality.Improving the exploration of the state space is most required in two visual tracking applications: abrupt motion tracking and multiple object tracking. In the thesis, we focus on the ability of the near optimal SMC methods to deal with abrupt motion situations and we compare them to the state-of-the-art methods proposed in the literature for these situations. Also, we extend the near optimal proposal to multiple object tracking scenarios and show the benefit of using the near optimal SMC algorithms for these scenarios. Moreover, we implemented the Local PF which partition large state spaces into separate smaller subspaces while modelling interactions
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

SORGENTE, ANGELA. "BENESSERE FINANZIARIO DEI GIOVANI ADULTI: QUALI METODOLOGIE DI RICERCA E TECNICHE STATISTICHE SONO NECESSARIE?" Doctoral thesis, Università Cattolica del Sacro Cuore, 2018. http://hdl.handle.net/10280/39103.

Texto completo
Resumen
Lo scopo generale della presente tesi è quello di arricchire la letteratura sul benessere finanziario dei giovani adulti adottando metodologie di ricerca e tecniche statistiche mai applicate in questo filone di ricerca. Nello specifico, nel primo capitolo è stata utilizzata la scoping methodology, ovvero una metodologia di sintesi della letteratura, con l’obiettivo di identificare la definizione, le componenti, i predittori e gli outcome del benessere finanziario dei giovani. Nel secondo capitolo è stata applicata la Latent Transition Analysis, con l’obiettivo di identificare sottogruppi omogenei di giovani rispetto ai marcatori dell’adultità che essi hanno già raggiunto e di verificare la relazione di tali sottogruppi con il benessere finanziario dei giovani che ad essi appartengono. Il terzo capitolo propone una metodologia per sviluppare e validare nuovi strumenti di misurazione, sulla base della visione contemporanea della validità. Tale metodologia, composta da tre diversi step, è stata utilizzata per la creazione di uno strumento adatto a misurare, su un campione di giovani italiani, il benessere finanziario soggettivo. Infine, il quarto capitolo riguarda la multiple informant methodology, che è stata utilizzata per raccogliere informazioni da madre, padre e figlio sul processo di socializzazione finanziaria familiare ed il suo impatto sul benessere finanziario del figlio.
The general aim of this research work is to enrich the literature on emerging adults’ financial well-being with research methodologies and statistical techniques never previously applied in this research field. Specifically, the first chapter of this thesis concerns the scoping methodology, a knowledge synthesis methodology that I adopted to identify the emerging adults’ financial well-being definition, components, predictors and outcomes. The second chapter consists in the application of a new statistical technique, Latent Transition Analysis, that I used to identify subgroups of emerging adults homogeneous in their configuration of adult social markers already reached and to investigate the relation between these emerging adults’ subgroups and their financial well-being. The third chapter describes a three-step methodology to develop and validate new measurement instruments, based on the contemporary view of validity proposed in the last fifty years. This three-step procedure was here applied to develop and validate a new instrument measuring subjective financial well-being for an emerging adult target population. Finally, the fourth chapter concerns the multiple informant methodology that I applied to collect information about family financial socialization and its impact on the child’s financial well-being from mother, father and the emerging adult child.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

SORGENTE, ANGELA. "BENESSERE FINANZIARIO DEI GIOVANI ADULTI: QUALI METODOLOGIE DI RICERCA E TECNICHE STATISTICHE SONO NECESSARIE?" Doctoral thesis, Università Cattolica del Sacro Cuore, 2018. http://hdl.handle.net/10280/39103.

Texto completo
Resumen
Lo scopo generale della presente tesi è quello di arricchire la letteratura sul benessere finanziario dei giovani adulti adottando metodologie di ricerca e tecniche statistiche mai applicate in questo filone di ricerca. Nello specifico, nel primo capitolo è stata utilizzata la scoping methodology, ovvero una metodologia di sintesi della letteratura, con l’obiettivo di identificare la definizione, le componenti, i predittori e gli outcome del benessere finanziario dei giovani. Nel secondo capitolo è stata applicata la Latent Transition Analysis, con l’obiettivo di identificare sottogruppi omogenei di giovani rispetto ai marcatori dell’adultità che essi hanno già raggiunto e di verificare la relazione di tali sottogruppi con il benessere finanziario dei giovani che ad essi appartengono. Il terzo capitolo propone una metodologia per sviluppare e validare nuovi strumenti di misurazione, sulla base della visione contemporanea della validità. Tale metodologia, composta da tre diversi step, è stata utilizzata per la creazione di uno strumento adatto a misurare, su un campione di giovani italiani, il benessere finanziario soggettivo. Infine, il quarto capitolo riguarda la multiple informant methodology, che è stata utilizzata per raccogliere informazioni da madre, padre e figlio sul processo di socializzazione finanziaria familiare ed il suo impatto sul benessere finanziario del figlio.
The general aim of this research work is to enrich the literature on emerging adults’ financial well-being with research methodologies and statistical techniques never previously applied in this research field. Specifically, the first chapter of this thesis concerns the scoping methodology, a knowledge synthesis methodology that I adopted to identify the emerging adults’ financial well-being definition, components, predictors and outcomes. The second chapter consists in the application of a new statistical technique, Latent Transition Analysis, that I used to identify subgroups of emerging adults homogeneous in their configuration of adult social markers already reached and to investigate the relation between these emerging adults’ subgroups and their financial well-being. The third chapter describes a three-step methodology to develop and validate new measurement instruments, based on the contemporary view of validity proposed in the last fifty years. This three-step procedure was here applied to develop and validate a new instrument measuring subjective financial well-being for an emerging adult target population. Finally, the fourth chapter concerns the multiple informant methodology that I applied to collect information about family financial socialization and its impact on the child’s financial well-being from mother, father and the emerging adult child.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Moarii, Matahi. "Apprentissage de données génomiques multiples pour le diagnostic et le pronostic du cancer". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0086/document.

Texto completo
Resumen
De nombreuses initiatives ont été mises en places pour caractériser d'un point de vue moléculaire de grandes cohortes de cancers à partir de diverses sources biologiques dans l'espoir de comprendre les altérations majeures impliquées durant la tumorogénèse. Les données mesurées incluent l'expression des gènes, les mutations et variations de copy-number, ainsi que des signaux épigénétiques tel que la méthylation de l'ADN. De grands consortium tels que “The Cancer Genome Atlas” (TCGA) ont déjà permis de rassembler plusieurs milliers d'échantillons cancéreux mis à la disposition du public. Nous contribuons dans cette thèse à analyser d'un point de vue mathématique les relations existant entre les différentes sources biologiques, valider et/ou généraliser des phénomènes biologiques à grande échelle par une analyse intégrative de données épigénétiques et génétiques.En effet, nous avons montré dans un premier temps que la méthylation de l'ADN était un marqueur substitutif intéressant pour jauger du caractère clonal entre deux cellules et permettait ainsi de mettre en place un outil clinique des récurrences de cancer du sein plus précis et plus stable que les outils actuels, afin de permettre une meilleure prise en charge des patients.D'autre part, nous avons dans un second temps permis de quantifier d'un point de vue statistique l'impact de la méthylation sur la transcription. Nous montrons l'importance d'incorporer des hypothèses biologiques afin de pallier au faible nombre d'échantillons par rapport aux nombre de variables.Enfin, nous montrons l'existence d'un phénomène biologique lié à l'apparition d'un phénotype d'hyperméthylation dans plusieurs cancers. Pour cela, nous adaptons des méthodes de régression en utilisant la similarité entre les différentes tâches de prédictions afin d'obtenir des signatures génétiques communes prédictives du phénotypes plus précises.En conclusion, nous montrons l'importance d'une collaboration biologique et statistique afin d'établir des méthodes adaptées aux problématiques actuelles en bioinformatique
Several initiatives have been launched recently to investigate the molecular characterisation of large cohorts of human cancers with various high-throughput technologies in order to understanding the major biological alterations related to tumorogenesis. The information measured include gene expression, mutations, copy-number variations, as well as epigenetic signals such as DNA methylation. Large consortiums such as “The Cancer Genome Atlas” (TCGA) have already gathered publicly thousands of cancerous and non-cancerous samples. We contribute in this thesis in the statistical analysis of the relationship between the different biological sources, the validation and/or large scale generalisation of biological phenomenon using an integrative analysis of genetic and epigenetic data.Firstly, we show the role of DNA methylation as a surrogate biomarker of clonality between cells which would allow for a powerful clinical tool for to elaborate appropriate treatments for specific patients with breast cancer relapses.In addition, we developed systematic statistical analyses to assess the significance of DNA methylation variations on gene expression regulation. We highlight the importance of adding prior knowledge to tackle the small number of samples in comparison with the number of variables. In return, we show the potential of bioinformatics to infer new interesting biological hypotheses.Finally, we tackle the existence of the universal biological phenomenon related to the hypermethylator phenotype. Here, we adapt regression techniques using the similarity between the different prediction tasks to obtain robust genetic predictive signatures common to all cancers and that allow for a better prediction accuracy.In conclusion, we highlight the importance of a biological and computational collaboration in order to establish appropriate methods to the current issues in bioinformatics that will in turn provide new biological insights
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Chevallier, Juliette. "Statistical models and stochastic algorithms for the analysis of longitudinal Riemanian manifold valued data with multiple dynamic". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX059/document.

Texto completo
Resumen
Par delà les études transversales, étudier l'évolution temporelle de phénomènes connait un intérêt croissant. En effet, pour comprendre un phénomène, il semble plus adapté de comparer l'évolution des marqueurs de celui-ci au cours du temps plutôt que ceux-ci à un stade donné. Le suivi de maladies neuro-dégénératives s'effectue par exemple par le suivi de scores cognitifs au cours du temps. C'est également le cas pour le suivi de chimiothérapie : plus que par l'aspect ou le volume des tumeurs, les oncologues jugent que le traitement engagé est efficace dès lors qu'il induit une diminution du volume tumoral.L'étude de données longitudinales n'est pas cantonnée aux applications médicales et s'avère fructueuse dans des cadres d'applications variés tels que la vision par ordinateur, la détection automatique d'émotions sur un visage, les sciences sociales, etc.Les modèles à effets mixtes ont prouvé leur efficacité dans l'étude des données longitudinales, notamment dans le cadre d'applications médicales. Des travaux récent (Schiratti et al., 2015, 2017) ont permis l'étude de données complexes, telles que des données anatomiques. L'idée sous-jacente est de modéliser la progression temporelle d'un phénomène par des trajectoires continues dans un espace de mesures, que l'on suppose être une variété riemannienne. Sont alors estimées conjointement une trajectoire moyenne représentative de l'évolution globale de la population, à l'échelle macroscopique, et la variabilité inter-individuelle. Cependant, ces travaux supposent une progression unidirectionnelle et échouent à décrire des situations telles que la sclérose en plaques ou le suivi de chimiothérapie. En effet, pour ces pathologies, vont se succéder des phases de progression, de stabilisation et de remision de la maladie, induisant un changement de la dynamique d'évolution globale.Le but de cette thèse est de développer des outils méthodologiques et algorithmiques pour l’analyse de données longitudinales, dans le cas de phénomènes dont la dynamique d'évolution est multiple et d'appliquer ces nouveaux outils pour le suivi de chimiothérapie. Nous proposons un modèle non-linéaire à effets mixtes dans lequel les trajectoires d'évolution individuelles sont vues comme des déformations spatio-temporelles d'une trajectoire géodésique par morceaux et représentative de l'évolution de la population. Nous présentons ce modèle sous des hypothèses très génériques afin d'englober une grande classe de modèles plus spécifiques.L'estimation des paramètres du modèle géométrique est réalisée par un estimateur du maximum a posteriori dont nous démontrons l'existence et la consistance sous des hypothèses standards. Numériquement, du fait de la non-linéarité de notre modèle, l'estimation est réalisée par une approximation stochastique de l'algorithme EM, couplée à une méthode de Monte-Carlo par chaînes de Markov (MCMC-SAEM). La convergence du SAEM vers les maxima locaux de la vraisemblance observée ainsi que son efficacité numérique ont été démontrées. En dépit de cette performance, l'algorithme SAEM est très sensible à ses conditions initiales. Afin de palier ce problème, nous proposons une nouvelle classe d'algorithmes SAEM dont nous démontrons la convergence vers des minima locaux. Cette classe repose sur la simulation par une loi approchée de la vraie loi conditionnelle dans l'étape de simulation. Enfin, en se basant sur des techniques de recuit simulé, nous proposons une version tempérée de l'algorithme SAEM afin de favoriser sa convergence vers des minima globaux
Beyond transversal studies, temporal evolution of phenomena is a field of growing interest. For the purpose of understanding a phenomenon, it appears more suitable to compare the evolution of its markers over time than to do so at a given stage. The follow-up of neurodegenerative disorders is carried out via the monitoring of cognitive scores over time. The same applies for chemotherapy monitoring: rather than tumors aspect or size, oncologists asses that a given treatment is efficient from the moment it results in a decrease of tumor volume. The study of longitudinal data is not restricted to medical applications and proves successful in various fields of application such as computer vision, automatic detection of facial emotions, social sciences, etc.Mixed effects models have proved their efficiency in the study of longitudinal data sets, especially for medical purposes. Recent works (Schiratti et al., 2015, 2017) allowed the study of complex data, such as anatomical data. The underlying idea is to model the temporal progression of a given phenomenon by continuous trajectories in a space of measurements, which is assumed to be a Riemannian manifold. Then, both a group-representative trajectory and inter-individual variability are estimated. However, these works assume an unidirectional dynamic and fail to encompass situations like multiple sclerosis or chemotherapy monitoring. Indeed, such diseases follow a chronic course, with phases of worsening, stabilization and improvement, inducing changes in the global dynamic.The thesis is devoted to the development of methodological tools and algorithms suited for the analysis of longitudinal data arising from phenomena that undergo multiple dynamics and to apply them to chemotherapy monitoring. We propose a nonlinear mixed effects model which allows to estimate a representative piecewise-geodesic trajectory of the global progression and together with spacial and temporal inter-individual variability. Particular attention is paid to estimation of the correlation between the different phases of the evolution. This model provides a generic and coherent framework for studying longitudinal manifold-valued data.Estimation is formulated as a well-defined maximum a posteriori problem which we prove to be consistent under mild assumptions. Numerically, due to the non-linearity of the proposed model, the estimation of the parameters is performed through a stochastic version of the EM algorithm, namely the Markov chain Monte-Carlo stochastic approximation EM (MCMC-SAEM). The convergence of the SAEM algorithm toward local maxima of the observed likelihood has been proved and its numerical efficiency has been demonstrated. However, despite appealing features, the limit position of this algorithm can strongly depend on its starting position. To cope with this issue, we propose a new version of the SAEM in which we do not sample from the exact distribution in the expectation phase of the procedure. We first prove the convergence of this algorithm toward local maxima of the observed likelihood. Then, with the thought of the simulated annealing, we propose an instantiation of this general procedure to favor convergence toward global maxima: the tempering-SAEM
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

El, Ghaziri Angélina. "Relation entre tableaux de données : exploration et prédiction". Thesis, Nantes, Ecole nationale vétérinaire, 2016. http://www.theses.fr/2016ONIR088F/document.

Texto completo
Resumen
La recherche développée dans le cadre de cette thèse aborde différents aspects relevant de l’analyse statistique de données. Dans un premier temps, une analyse de trois indices d’associations entre deux tableaux de données est développée. Par la suite, des stratégies d’analyse liées à la standardisation de tableaux de données avec des applications en analyse en composantes principales (ACP) et en régression, notamment la régression PLS sont présentées. La première stratégie consiste à proposer une standardisation continuum des variables. Une standardisation plus générale est aussi abordée consistant à réduire de manière graduelle non seulement les variances des variables mais également les corrélations entre ces variables. De là, une approche continuum de régression a été élaborée regroupant l’analyse des redondances et la régression PLS. Par ailleurs, cette dernière standardisation a inspiré une démarche de régression biaisée dans le cadre de régression linéaire multiple. Les propriétés d’une telle démarche sont étudiées et les résultats sont comparés à ceux de la régression Ridge. Dans le cadre de l’analyse de plusieurs tableaux de données, une extension de la méthode ComDim pour la situation de K+1 tableaux est développée. Les propriétés de cette méthode, appelée P-ComDim, sont étudiées et comparées à celles de Multiblock PLS. Enfin, la situation où il s’agit d’évaluer l’effet de plusieurs facteurs sur des données multivariées est considérée et une nouvelle stratégie d’analyse est proposée
The research developed in this thesis deals with several statistical aspects for analyzing datasets. Firstly, investigations of the properties of several association indices commonly used by practitioners are undergone. Secondly, different strategies related to the standardization of the datasets with application to principal component analysis (PCA) and regression, especially PLS-regression were developed. The first strategy consists of a continuum standardization of the variables. The interest of such standardization in PCA and PLS-regression is emphasized.A more general standardization is also discussed which consists in reducing gradually not only the variances of the variables but also their correlations. Thereafter, a continuum approach was developed combining Redundancy Analysis and PLS-regression. Moreover, this new standardization inspired a biased regression model in multiple linear regression. Properties related to this approach are studied and the results are compared on the basis of case studies with those of Ridge regression. In the context of the analysis of several datasets in an exploratory perspective, the method called ComDim, has certainly raised interest among practitioners. An extension of this method for the analysis of K+1 datasets was developed. Properties related to this method, called P-ComDim, are studied and compared to Multiblock PLS. Finally, for the analysis of datasets depending on several factors, a new approach based on PLS regression is proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Kwadjane, Jean-Marc. "Apport de la connaissance a priori de la position de l'émetteur sur les algorithmes MIMO adaptatifs en environnement tunnel pour les métros". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10208/document.

Texto completo
Resumen
Cette thèse porte sur la conception d'algorithmes adaptatifs pour des communications sans fil dans un contexte multi-antennes en émission et en réception (MIMO) et en environnement tunnel pour les métros. La technologie MIMO permet de répondre aux besoins de haut débit et de qualité de transmission. Dans les tunnels, ces performances sont réduites en raison de la corrélation spatiale. Dans cette thèse, nous avons étudié les algorithmes de précodage MIMO, qui utilisent la connaissance du canal (CSI) à l'émetteur. Généralement, ces algorithmes nécessitent un lien retour pour transmettre la CSI. Afin de minimiser la perte d'efficacité spectrale due au lien retour, nous avons choisi des précodeurs issus de la littérature qui réduisent le débit sur le lien retour. Nous avons réalisé une chaîne de simulation complète et réaliste afin d'évaluer les performances de ces précodeurs en tenant compte de plusieurs niveaux de quantité et de qualité de la CSI. Les simulations ont été réalisées dans des canaux théoriques et mesurés. Nous avons aussi évalué l'impact du bruit impulsif caractéristique de l'environnement ferroviaire. Nous proposons une borne supérieure théorique de la probabilité d'erreur du précodeur max-dmin dans des environnements décorrelés en présence du bruit impulsif modélisé par une loi de Cauchy ainsi qu'un récepteur adapté à ce bruit. La caractérisation du canal de propagation MIMO en tunnel a aussi permis d'obtenir une connaissance fine des caractéristiques du canal de en fonction de la position dans le tunnel. Ainsi, nous avons donc proposé un précodeur basé sur la connaissance de la matrice de corrélation et étudié la possibilité de supprimer le lien retour
This thesis focuses on the design of adaptive algorithms for wireless communications in a multiple input multiple output (MIMO) design for subway tunnel environment. MIMO system meet the requirement of high capacity and robustness. However, these performance decreased due to the spatial correlation in tunnels. In this thesis, we studied precoding MIMO algorithms that use the channel state information (CSI) at the transmitter. Generally, these algorithms require feedback from receiver. To minimize the loss of spectral efficiency due to the reverse link, we selected from the literature precoder that reduce the feedback. We conducted a complete and realistic simulation system to evaluate the performance of these precoders taking into account several levels of quantity and quality of the CSI. For simulation, we used both theoretical and measured channels. We also assessed the impact of impulsive noise measured in the railway environment. By assuming a Cauchy law, We propose a receiver and a theoretical upper bound of the error probability of max-dmin precoder in uncorrelated environments. Finally, we proposed a precoder based on knowledge of the correlation matrix and studied the possibility of removing the return link thanks to the knowledge of the channel statistiques based on the localization in the tunnel
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Corrente, Salvatore. "Hierarchy and interaction of criteria in robust ordinal regression". Doctoral thesis, Università di Catania, 2013. http://hdl.handle.net/10761/1312.

Texto completo
Resumen
All decision making problems we deal with along our lives, have a multiple criteria structure, that is several alternatives are evaluated with respect to some points of view, technically called evaluation criteria, and then compared in order to make the ``best'' decision. Multiple Criteria Decision Aiding, proposes methodologies useful to take decisions explicitly considering the preferences of the Decision Maker. In many real world problems, the criteria are not independent but interacting, being possible to observe a certain degree of synergy or redundancy between the evaluation criteria and often the criteria may be not all at the same level, but structured in a hierarchical way. In this thesis we dealt with both above problematics. Regarding the hierarchy of criteria, we have aggregated the evaluations of the alternatives using utility functions, outranking methods and Choquet integral; regarding the interaction of criteria, we have extended the multiple criteria PROMETHEE methods to the bipolar PROMETHEE methods; we have integrated the SMAA methodology with the Choquet integral and finally we have extended the customer satisfaction method MUSA to the case in which synergy or redundancy between criteria is also considered.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Clouvel, Laura. "Uncertainty quantification of the fast flux calculation for a PWR vessel". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS414.

Texto completo
Resumen
Pour s’assurer de la sûreté des réacteurs et de l’intégrité de leurs cuves, des programmes de surveillance sont mis en place. Ces derniers dépendent notamment du calcul de densité neutronique qui quantifie le nombre de neutrons rapides (susceptibles de modifier les propriétés mécaniques de la cuve) reçus par les capsules de surveillance. Or, un manque de connaissances sur ce calcul peut obliger l’exploitant à fixer des marges de sûreté supérieures sur la durée de vie des centrales, et donc affecter les conditions de fonctionnement et le coût des installations nucléaires. C’est pourquoi il est essentiel de déterminer l’incertitude du calcul de flux à la cuve des REP. La plupart des études passées sont basées sur une quantification de l’incertitude par la méthode des moments qui suppose une variation linéaire de la sortie du calcul. Cette hypothèse n’a jamais été vérifiée compte tenu du grand nombre de variables d’entrée et des ressources informatiques relativement limitées pour envisager l’application d’autres méthodes. Une méthode alternative est celle de l’approche Total Monte Carlo (TMC) qui consiste à considérer les paramètres d’entrées du modèle de calcul comme des variables aléatoires, et à propager les perturbations issues d’un tirage statistique dans la chaîne de calcul. L’avantage de cette méthode est qu’elle propose une description plus précise des incertitudes du modèle, et permet de définir des quantiles et donc des intervalles de confiance qui peuvent s’avérer utiles dans le cadre d'une étude de sûreté. C’est dans ce contexte, que cette thèse s’intègre. Elle consiste à déterminer l’incertitude du flux neutronique rapide de la cuve des REP en considérant les librairies de données nucléaires récentes et en utilisant une approche TMC pour la propagation des incertitudes d’entrées. La particularité de ce travail repose sur le grand nombre de paramètres d’entrées corrélés qui nécessite la mise en place de méthodologies adaptées. En particulier, les indices de Shapley et de Johnson qui sont peu connus dans le domaine du nucléaire, sont proposés dans le cadre de l'analyse globale de sensibilité d'un problème multicolinéaire
The vessel neutron irradiation, which cannot be replaced, is one of the limiting factors for pressurized water reactor (PWR) lifetime. Surveillance programmes are therefore necessary for safety assessment and for verifying the vessel structural integrity. The quality of radiation damage prediction depends in part on the calculation of the fast neutron flux. In that sense, a lack of knowledge on the fast neutron flux will require larger safety margins on the plant lifetime affecting operating conditions and the cost of nuclear installations. To make correct decisions when designing the plant lifetime and on safety margins for PWR reactors, it is therefore essential to assess the uncertainty in vessel flux calculations. Most of the past studies on the flux uncertainty quantification are based on the methods of moments which assumes a linear output variation. This method was most commonly used because the calculation capabilities of computers prevented from conducting more accurate methods. In a non-linear case, the first order hypothesis appears insufficient for an accurate prediction of the output variance.An alternative method is the Total Monte Carlo approach (TMC) which consists in randomly sampling the input data and propagating the perturbations on the calculation chain. The advantage of this method is that it does not make any assumptions on the linear interactions or small input changes among data. It considers the probability distributions of input parameters and thus provides a more precise description of input uncertainties.It is within this context that this thesis was conducted. It consists in performing a new uncertainty assessment of the fast flux calculation for the PWR vessel considering the data of recent international nuclear libraries. The special feature of this thesis lies in the large number of uncertain parameters which are closely correlated with each other. The uncertainty on the fast flux, considering all the uncertain parameters, is finally estimated for the vessel hot spot. More generally, in this context of sensitivity analysis, we show the importance to consider the covariance matrices to propagate the input uncertainties, and to analyze the contribution of each input on a physical model. The Shapley and Johnson indices are especially used in a multicolinearity context between the inputs and the output
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Moypemna, sembona Cyrille clovis. "Caractérisations des modèles multivariés de stables-Tweedie multiples". Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2071/document.

Texto completo
Resumen
Ce travail de thèse porte sur différentes caractérisations des modèles multivariés de stables-Tweedie multiples dans le cadre des familles exponentielles naturelles sous la propriété de "steepness". Ces modèles parus en 2014 dans la littérature ont été d’abord introduits et décrits sous une forme restreinte des stables-Tweedie normaux avant les extensions aux cas multiples. Ils sont composés d’un mélange d’une loi unidimensionnelle stable-Tweedie de variable réelle positive fixée, et des lois stables-Tweedie de variables réelles indépendantes conditionnées par la première fixée, de même variance égale à la valeur de la variable fixée. Les modèles stables-Tweedie normaux correspondants sont ceux du mélange d’une loi unidimensionnelle stable-Tweedie positive fixé et les autres toutes gaussiennes indépendantes. A travers des cas particuliers tels que normal, Poisson, gamma, inverse gaussienne, les modèles stables-Tweedie multiples sont très fréquents dans les études de statistique et probabilités appliquées. D’abord, nous avons caractérisé les modèles stables-Tweedie normaux à travers leurs fonctions variances ou matrices de covariance exprimées en fonction de leurs vecteurs moyens. La nature des polynômes associés à ces modèles est déduite selon les valeurs de la puissance variance à l’aide des propriétés de quasi orthogonalité, des systèmes de Lévy-Sheffer, et des relations de récurrence polynomiale. Ensuite, ces premiers résultats nous ont permis de caractériser à l’aide de la fonction variance la plus grande classe des stables-Tweedie multiples. Ce qui a conduit à une nouvelle classification laquelle rend la famille beaucoup plus compréhensible. Enfin, une extension de caractérisation des stables-Tweedie normaux par fonction variance généralisée ou déterminant de la fonction variance a été établie via leur propriété d’indéfinie divisibilité et en passant par les équations de Monge-Ampère correspondantes. Exprimées sous la forme de produit des composantes du vecteur moyen aux puissances multiples, la caractérisationde tous les modèles multivariés stables-Tweedie multiples par fonction variance généralisée reste un problème ouvert
In the framework of natural exponential families, this thesis proposes differents characterizations of multivariate multiple stables-Tweedie under "steepness" property. These models appeared in 2014 in the literature were first introduced and described in a restricted form of the normal stables-Tweedie models before extensions to multiple cases. They are composed by a fixed univariate stable-Tweedie variable having a positive domain, and the remaining random variables given the fixed one are reals independent stables-Tweedie variables, possibly different, with the same dispersion parameter equal to the fixed component. The corresponding normal stables-Tweedie models have a fixed univariate stable-Tweedie and all the others are reals Gaussian variables. Through special cases such that normal, Poisson, gamma, inverse Gaussian, multiple stables-Tweedie models are very common in applied probability and statistical studies. We first characterized the normal stable-Tweedie through their variances function or covariance matrices expressed in terms of their means vector. According to the power variance parameter values, the nature of polynomials associated with these models is deduced with the properties of the quasi orthogonal, Levy-Sheffer systems, and polynomial recurrence relations. Then, these results allowed us to characterize by function variance the largest class of multiple stables-Tweedie. Which led to a new classification, which makes more understandable the family. Finally, a extension characterization of normal stable-Tweedie by generalized variance function or determinant of variance function have been established via their infinite divisibility property and through the corresponding Monge-Ampere equations. Expressed as product of the components of the mean vector with multiple powers parameters reals, the characterization of all multivariate multiple stable- Tweedie models by generalized variance function remains an open problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Guillet, Julien. "Caractérisation et modélisation spatio-temporelles du canal de propagation radioélectrique dans le contexte MIMO". Phd thesis, INSA de Rennes, 2004. http://tel.archives-ouvertes.fr/tel-00008011.

Texto completo
Resumen
Les techniques MIMO (Multiple Input - Multiple Output) constituent des solutions prometteuses pour les futurs systèmes de communications sans fil à très haut débit. Ces techniques visent à exploiter la dimension spatiale offerte par le milieu de propagation par l'intermédiaire de plusieurs antennes en émission et en réception permettant ainsi d'augmenter substantiellement le débit numérique.Les performances des systèmes MIMO étant largement tributaire des propriétés du canal de propagation sans fil, il est d'autant plus important pour ces systèmes de s'intéresser à ces dernières.Ce document a pour double objectif d'approfondir la connaissance sur les aspects théoriques et physiques de la caractérisation et de la modélisation spatio-temporelles du canal de transmission MIMO, en considérant la dimension spatiale au même niveau que la dimension temporelle, ainsi que de proposer un simulateur du canal MIMO réaliste basé sur des résultats de mesures.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Kurisummoottil, Thomas Christo. "Sparse Bayesian learning, beamforming techniques and asymptotic analysis for massive MIMO". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS231.

Texto completo
Resumen
Des antennes multiples du côté de la station de base peuvent être utilisées pour améliorer l'efficacité spectrale et l'efficacité énergétique des technologies sans fil de nouvelle génération. En effet, le multi-entrées et sorties multiples massives (MIMO) est considéré comme une technologie prometteuse pour apporter les avantages susmentionnés pour la norme sans fil de cinquième génération, communément appelée 5G New Radio (5G NR). Dans cette monographie, nous explorerons un large éventail de sujets potentiels dans Multi-userMIMO (MU-MIMO) pertinents pour la 5G NR,• Conception de la formation de faisceaux (BF) maximisant le taux de somme et robustesse à l'état de canal partiel informations à l'émetteur (CSIT)• Analyse asymptotique des différentes techniques BF en MIMO massif et• Méthodes d'estimation de canal bayésien utilisant un apprentissage bayésien clairsemé.L'une des techniques potentielles proposées dans la littérature pour contourner la complexité matérielle et la consommation d'énergie dans le MIMO massif est la formation de faisceaux hybrides. Nous proposons une conception de phaseur analogique globalement optimale utilisant la technique du recuit déterministe, qui nous a valu le prix du meilleur article étudiant. En outre, afin d'analyser le comportement des grands systèmes des systèmes MIMO massifs, nous avons utilisé des techniques de la théorie des matrices aléatoires et obtenu des expressions de taux de somme simplifiées. Enfin, nous avons également examiné le problème de récupération de signal bayésien clairsemé en utilisant la technique appelée apprentissage bayésien clairsemé (SBL)
Multiple antennas at the base station side can be used to enhance the spectral efficiency and energy efficiency of the next generation wireless technologies. Indeed, massive multi-input multi-output (MIMO) is seen as one promising technology to bring the aforementioned benefits for fifth generation wireless standard, commonly known as 5G New Radio (5G NR). In this monograph, we will explore a wide range of potential topics in multi-userMIMO (MU-MIMO) relevant to 5G NR,• Sum rate maximizing beamforming (BF) design and robustness to partial channel stateinformation at the transmitter (CSIT)• Asymptotic analysis of the various BF techniques in massive MIMO and• Bayesian channel estimation methods using sparse Bayesian learning.One of the potential techniques proposed in the literature to circumvent the hardware complexity and power consumption in massive MIMO is hybrid beamforming. We propose a globally optimal analog phasor design using the technique of deterministic annealing, which won us the best student paper award. Further, in order to analyze the large system behaviour of the massive MIMO systems, we utilized techniques from random matrix theory and obtained simplified sum rate expressions. Finally, we also looked at Bayesian sparse signal recovery problem using the technique called sparse Bayesian learning (SBL). We proposed low complexity SBL algorithms using a combination of approximate inference techniques such as belief propagation (BP), expectation propagation and mean field (MF) variational Bayes. We proposed an optimal partitioning of the different parameters (in the factor graph) into either MF or BP nodes based on Fisher information matrix analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía