Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Données de survies.

Thèses sur le sujet « Données de survies »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Données de survies ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Ortholand, Juliette. « Joint modelling of events and repeated observations : an application to the progression of Amyotrophic Lateral Sclerosis ». Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS227.

Texte intégral
Résumé :
L’hétérogénéité des progressions des maladies chroniques, comme la Sclérose Latérale Amyotrophique (SLA), constitue un obstacle au développement de traitements. L'utilisation croissante de bases de données, couplée à la modélisation de ces maladies, contribue à une meilleure compréhension de ce phénomène. Cependant, les données collectées ne permettent de décrire que des trajectoires partielles qui doivent être réalignées pour reconstruire une progression complète de la maladie. Le modèle spatiotemporel est l’un des modèles développés pour traiter cette question. Son principal intérêt est sa capacité à réaligner les progressions des patients à la fois en terme de chronologie (aspect temporel), grâce à un âge latent, et en terme d’ordre de progression des données longitudinales (aspect spatial). Cependant, ce modèle n’a pas été conçu pour la modélisation d’évènements, cruciaux dans la SLA : survie ou introduction de support de vie, comme la ventilation non invasive (VNI). A l’inverse, les modèles conjoints existants offrent l'avantage de traiter simultanément des données longitudinales et de survie. Cependant, ils ne réalignent pas les trajectoires, ce qui compromet leur résolution temporelle. Cette thèse visait à étendre le modèle spatiotemporel en un modèle spatiotemporel conjoint, permettant l'examen des données longitudinales et de survie dans la SLA. Nous avons d’abord appliqué le modèle spatiotemporel pour étudier l’impact de l'interaction entre le sexe et le site de début (spinal ou bulbaire) sur la progression de la SLA. En utilisant la base de données PRO-ACT, nous avons démontré une influence significative à la fois du sexe et du site de début sur six résultats longitudinaux surveillant le déclin fonctionnel et respiratoire ainsi que l'indice de masse corporelle. Cependant, cette étude n'a pas incorporé d'analyse de survie, malgré son importance dans la SLA, en raison des limitations du modèle. Pour combler cette lacune, nous avons associé au modèle spatiotemporel un modèle de survie qui estime une distribution de Weibull de l’évènement (le décès ici) à partir de l’âge latent, créant ainsi un modèle temporel univarié conjoint. Après validation du modèle, nous l'avons comparé à un modèle conjoint de l’état de l’art sur les données PRO-ACT. Notre modèle a obtenu des performances significativement supérieures en termes de biais absolu et d'AUC moyenne pour les événements censurés à droite. Cela a démontré l'efficacité de notre approche dans le contexte de la SLA. Cependant, la modélisation de plusieurs résultats longitudinaux nécessite une approche multivariée et l'initiation de support de vie, qui peut être censurée par le décès, doit aussi être prise en compte. Nous avons donc étendu le modèle temporel conjoint en un modèle spatiotemporel conjoint avec des risques concurrents pour analyser l'initiation de la VNI. Cela impliquait de coupler le modèle spatiotemporel multivarié avec un modèle de survie pour risques concurrents estimé à partir de l'âge latent. Après validation, nous avons comparé notre modèle à un modèle conjoint de l’état de l’art sur les données PRO-ACT et avons analysé l'interaction entre le sexe et le site de début en complément de la première étude. Le modèle spatiotemporel conjoint a atteint des performances similaires au modèle de l’état de l’art tout en capturant un processus latent partagé, l'âge latent, tandis que le modèles de l’état de l’art examinent l'impact des données longitudinales sur la survie. Pour faciliter la reproductibilité et la réutilisation de ces modèles, ils ont été implémentés dans le logiciel open source Leaspy. Cette thèse introduit le premier modèle permettant de réaligner des trajectoires partielles en combinant la modélisation de données longitudinales et de survie. Nous avons démontré sa pertinence pour comprendre l'occurrence d'événements critiques dans la SLA
Progression heterogeneity in chronic diseases such as Amyotrophic Lateral Sclerosis (ALS) is a significant obstacle to developing effective treatments. Leveraging the growing wealth of large databases through modelling can help better understanding it. However, the data collected only offer access to partial trajectories, that need to be realigned to reconstruct a comprehensive disease progression. To address this challenge, data-driven progression models like the longitudinal Spatiotemporal model were developed. Its main interest is its ability to synchronise patients onto a common disease timeline (temporal aspect) thanks to a latent disease age, while also capturing the remaining variability through parameters that account for outcome ordering (spatial aspect). However, this model was primarily designed for longitudinal data, overlooking crucial outcomes in ALS such as time to death or initiation of life support, like Non-Invasive Ventilation (NIV). Conversely, existing joint models offer the advantage of simultaneously handling longitudinal and survival data. However, they do not realign trajectories, which compromises their temporal resolution. This thesis aimed to expand the Spatiotemporal model into a Joint Spatiotemporal model, enabling, for ALS research, the examination of survival data alongside longitudinal data. First, we applied the Spatiotemporal model to explore how the interaction between sex and onset site (spinal or bulbar) impacts the progression of ALS patients. We selected 1,438 patients from the PRO-ACT database. We demonstrated a significant influence of both sex and onset site on six longitudinal outcomes monitoring the functional and respiratory decline in addition to Body Mass Index. However, this study did not incorporate survival analysis, despite its paramount importance in ALS, due to limitations inherent to the Spatiotemporal model. To address this gap, we associated the Spatiotemporal model with a survival model that estimates a Weibull survival model from its latent disease age, creating a univariate Joint Temporal model. After model validation, we benchmarked our model with a state-of-the-art joint model on PRO-ACT data. Our model exhibited significantly superior performance in terms of absolute bias and mean cumulative AUC for right-censored events. This demonstrated the efficacy of our approach in the context of ALS compared to existing joint models. However, modelling several longitudinal outcomes requires a multivariate approach. Life support initiation that might be censored by death needs to be also considered. We thus extended the Joint Temporal model, into a multivariate Joint Spatiotemporal model with competing risks to analyse NIV initiation. This involved coupling the multivariate Spatiotemporal model with a cause-specific Weibull survival model from the latent disease age. We incorporated spatial parameters with a Cox proportional effect on the hazard. After validation, we benchmarked our model with a state-of-the-art joint model on PRO-ACT data and analysed sex and onset site interaction in complement to the first study. The Joint Spatiotemporal model achieved similar performance to the state-of-the-art model while capturing an underlying shared latent process, the latent disease age, whereas the state-of-the-art models the impact of longitudinal outcomes on survival. To enhance the reproducibility and facilitate the reuse of these models, the proposed models were implemented in the open-source software Leaspy. In conclusion, this thesis introduces the first data-driven progression model combining longitudinal and survival modelling. We demonstrated its relevance to understand the occurrence of critical events in ALS. This work paves the way for further extension to analyse recurrent events, among other potential applications in causal inference
Styles APA, Harvard, Vancouver, ISO, etc.
2

Martin, Marie-Laure. « Données de survie ». Paris 11, 2001. http://www.theses.fr/2001PA112335.

Texte intégral
Résumé :
Nous considérons deux problèmes statistiques liés à l'estimation du risque de cancer des survivants d'Hiroshima. Le premier problème est l'estimation de la fonction de risque instantané quand une covariable est sujette à une erreur de mesure. Dans le chapitre 2, les données disponibles sont des données groupées. Nous supposons que l'erreur de mesure est une erreur de mauvais classement dans des intervalles et nous estimons simultanément les paramètres du risque instantané d'un modèle à risque proportionnel et les probabilités de mauvais classement. La méthode proposée est une généralisation de la méthode des moindres carrés. Nous l'appliquons aux données d'Hiroshima pour prendre en compte l'erreur de mesure de la dose de rayonnement ionisant dans l'estimation du risque de cancer. Dans le chapitre 3 les données disponibles sont les données individuelles. Nous considérons un modèle d'excès de risque relatif où la covariable est mesurée à une erreur additive gaussienne près. Nous construisons un critère d'estimation, basé sur la pseudo-vraisemblance et nous proposons un estimateur du paramètre de régression consistant et asymptotiquement gaussien. Le résultat est étendu à d'autres modélisations du risque ainsi qu'au modèle d'erreur log-normale. Le second problème est l'estimation non-paramétrique de la fonction de risque instantané par une procédure de sélection de modèle. Nous considérons une collection suffisamment riche de fonctions pour approcher le risque instantané et nous sélectionnons la meilleure fonction selon un critère pénalisé qui réalise le meilleur compromis entre la qualité de l'approximation du modèle statistique aux données, et le nombre de paramètres du modèle. Cette méthode permet d'estimer le risque instantané sans avoir à poser d'à priori sur sa forme. Nous l'appliquons pour estimer le risque de cancer induit par une faible dose de rayonnement ionisant
We consider two statistical problems arising during the estimation of the hazard function of cancer death in Hiroshima. The first problem is the estimation of the hazard function when the covariate is mismeasured. In Chapter 2, only grouped data are available, and the mismeasurement of the covariate is modeled as a misclassification. An easily implemented estimation procedure based on a generalization of the least squares method is devised for estimating simultaneously the parameters of the hazard function and the misclassification probabilities. The procedure is applied for taking into account the mismeasurement of the dose of radiation in the estimation of the hazard function of solid cancer death in Hiroshima. In Chapter 3 available data are individual data. We consider a model of excess relative risk, and we assume that the covariate is measured with a Gaussian additive error. We propose an estimation criterion based on the partial log-likelihood, and we show that the estimator obtained by maximization of this criterion is consistent and asymptotically Gaussian. Our result extends to other polynomial regression functions, to the Cox model and to the log-normal error model. The second problem is the non-parametric estimation of the hazard function. We consider the model of excess relative and absolute risk and propose a non-parametric estimation of the effect of the covariate using a model selection procedure, when available data are stratified data. We approximate the function of the covariate by a collection of spline functions, and select the best one according to Akaike Information Criterion. By the same way we choose which model between the model of excess relative risk or excess absolute risk fits the best the data. We apply our method for estimating the solid cancer and leukemia death hazard functions in Hiroshima
Styles APA, Harvard, Vancouver, ISO, etc.
3

Heutte, Natacha. « Modèles semi-markoviens et données de survie ». Paris 5, 2001. http://www.theses.fr/2001PA05S013.

Texte intégral
Résumé :
Nous nous intéressons à la modélisation de la durée de survie de patients sous certaines conditions en même temps que de la qualité de vie, c'est à dire à évaluer l'impact sur la durée de survie et la qualité de vie de facteurs endogènes tels que les traits génétiques et les dosages biologiques et de facteurs exogènes comme le traitement médical et l'environnement. Il s'agit de tester la présence de tels effets et, dans le cas où elle a été détectée, d'évaluer leur importance. Cette modélisation doit permettre une inférence statistique même dans le cas où il y a des censures à droite. A cet effet, nous avons développé des modèles fondés sur les processus semi-markoviens. Il s'agit de modèles multi-états, qui donnent une représentation réaliste du processus vital d'un malade en cours de traitement. Celui-ci passe par divers états et y séjourne pendant des durées qui peuvent dépendre de différents facteurs. Ils permettent de se libérer de l'hypothèse trop restictive des processus de Markov. Ces modèles peuvent être appliqués à d'autres situations que celle de la survie et de la qualité de vie comme la fiabilité ou la démographie. Un modèle semi-paramétrique à temps discret a été développé. Il est fondé sur le modèle de Cox. Deux modèles en temps continu ont été étudiés. Le premier, fondé sur les risques compétitifs est plus restrictif que le second qui autorise une liaison entre les durées vers les différents issues à partir d'un état donné, sans toutefois l'imposer. Ces modèles sont appliqués à l'étude du SIDA et à la qualité de vie dans un essai thérapeutique en cancérologie
Models for survival data including a categorized quality of life index is proposed. The model is intended to take into account the effect of endogenous and exogenous factors both on the duration of survival and the quality of life. Endogenous factors are for example biological measurements or genetical specifications, while exogenous ones are environmental factors. The proposed models are semi-parametric and based on semi-markov processes. Time may be continuous or discrete depending on the type of the data. The general framework of all preexisting models is sketched. Estimators are derived, as well as their asymptotic properties, and algorithms and programs are given to compute them explicitly. They are exemplified on real data on AIDS and cancer patients, and on simulations. Those models are presented in a biomedical context but can be useful in any field where durations together with multistate processes are involved
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lorino, Tristan. « Modèles statistiques pour des données de survie corrélées ». Phd thesis, Institut national agronomique paris-grignon - INA P-G, 2002. http://tel.archives-ouvertes.fr/tel-00003672.

Texte intégral
Résumé :
Les méthodes et modèles statistiques destinés aux données de survie furent, dans leur grande majorité, développés sous l'hypothèse implicite d'indépendance statistique des observations individuelles. Bien que l'imposition d'une telle hypothèse soit raisonnable pour un grand nombre d'applications, il s'avère évident que dans bon nombre d'autres -- et non des moins courantes --, cette hypothèse est violée. Par exemple, en science vétérinaire, de telles données corrélées apparaissent lorsque les observations individuelles sont regroupées au sein d'élevages.
Nous étudions les deux principales classes de modèles pour données de survie corrélées : les modèles de fragilité (ou conditionnels) et les modèles marginaux. Nous nous proposons une large comparaison de ces deux approches, d'une part au travers d'une étude de données vétérinaires, d'autre part au moyen de simulations.
Notre objectif est d'évaluer la sensibilité de tels modèles vis-à-vis de la structure des jeux de données qu'ils sont appelés à traiter -- et plus particulièrement vis-à-vis de la taille des groupes.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dantan, Etienne. « Modèles conjoints pour données longitudinales et données de survie incomplètes appliqués à l'étude du vieillissement cognitif ». Thesis, Bordeaux 2, 2009. http://www.theses.fr/2009BOR21658/document.

Texte intégral
Résumé :
Dans l'étude du vieillissement cérébral, le suivi des personnes âgées est soumis à une forte sélection avec un risque de décès associé à de faibles performances cognitives. La modélisation de l'histoire naturelle du vieillissement cognitif est complexe du fait de données longitudinales et données de survie incomplètes. Par ailleurs, un déclin accru des performances cognitives est souvent observé avant le diagnostic de démence sénile, mais le début de cette accélération n'est pas facile à identifier. Les profils d'évolution peuvent être variés et associés à des risques différents de survenue d'un événement; cette hétérogénéité des déclins cognitifs de la population des personnes âgées doit être prise en compte. Ce travail a pour objectif d'étudier des modèles conjoints pour données longitudinales et données de survie incomplètes afin de décrire l'évolution cognitive chez les personnes âgées. L'utilisation d'approches à variables latentes a permis de tenir compte de ces phénomènes sous-jacents au vieillissement cognitif que sont l'hétérogénéité et l'accélération du déclin. Au cours d'un premier travail, nous comparons deux approches pour tenir compte des données manquantes dans l'étude d'un processus longitudinal. Dans un second travail, nous proposons un modèle conjoint à état latent pour modéliser simultanément l'évolution cognitive et son accélération pré-démentielle, le risque de démence et le risque de décès
In cognitive ageing study, older people are highly selected by a risk of death associated with poor cognitive performances. Modeling the natural history of cognitive decline is difficult in presence of incomplete longitudinal and survival data. Moreover, the non observed cognitive decline acceleration beginning before the dementia diagnosis is difficult to evaluate. Cognitive decline is highly heterogeneous, e.g. there are various patterns associated with different risks of survival event. The objective is to study joint models for incomplete longitudinal and survival data to describe the cognitive evolution in older people. Latent variable approaches were used to take into account the non-observed mechanisms, e.g. heterogeneity and decline acceleration. First, we compared two approaches to consider missing data in longitudinal data analysis. Second, we propose a joint model with a latent state to model cognitive evolution and its pre-dementia acceleration, dementia risk and death risk
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bazin, Gurvan. « Analyse différée des données du SuperNova Legacy Survey ». Paris 7, 2008. http://www.theses.fr/2008PA077135.

Texte intégral
Résumé :
Le SuperNova Legacy Survey (SNLS) a observé les supernovae de type ia (SNeHa) pendant 5 ans afin de contraindre les paramètres cosmologiques. Sa procédure de sélection en temps réel repose sur l'identification spectroscopique de chaque supernova. Ce recourt systématique à la spectroscopie nécessite un niveau suffisament élevé de signal sur bruit. Il peut donc engendrer des biais de sélection et ne sera plus possible sur les futurs relevés qui observeront des millions de SNeHa. Cette thèse présente une méthode de réduction des données complémentaire reposant sur une sélection purement photométrique. Cette analyse, plus efficace sur la sélection des événements les plus faibles, double approximativement ainsi l'échantillon de SNeHa du SNLS. Cette méthode met en évidence un net biais de sélection spectroscopique. Les SNeHa les plus brillantes sont systématiquement sélectionnées au delà d'un redshift de 0. 7. En revanche, aucun impact important sur la cosmologie n'a été trouvé. Cela prouve que les corrections tenant compte de la variabilité en luminosité des SNeHa sont robustes. De plus, ces travaux constituent une première étude de faisabilité d'une analyse cosmologique complètement photométrique. La méthode utilisée est prometteuse pour les futurs grands projets
The SuperNova Legacy Survey (SNLS) experiment observed type la supemovae (SNeHa) during 5 years. Its aim is the contraint cosmological parameters. The online reduction pipeline is based on spectroscopic identification for each supernova. Systematically using spectroscopy requires a sufficient signal to noise level. Thus, it could lead to selection biases and would not be possible for future surveys The PhD thesis report a complementary method for data reduction based on a completely photometric selection. This analysis, more efficient to select faint events, approximately double the SNeHa sample of the SNLS. This method show a clear bias in the spectroscopic selection. Brighter SNeHa are systematically selected beyond a redshift of 0. 7. On the other hand, no important impact on cosmology was found. So, corrections on intrinsic variability of SNeHa luminosity are robust. In addition, this work is a first step to study the feasibility of such a purely photometric analysis for cosmology. This is a promising method for future projects
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bach, Aurélien. « Prédiction de survie sur des données cliniques censurées et application à la MPOC ». Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11580.

Texte intégral
Résumé :
La Maladie Pulmonaire Obstructive Chronique est une maladie respiratoire causée principalement par le tabagisme et touchant le plus souvent des personnes âgées de plus de quarante ans. Parce qu’elle est responsable du plus haut taux de réadmission ainsi que de la troisième cause de décès en Amérique du Nord et dans le reste du monde, les chercheurs et cliniciens s’intéressent à prédire le risque auquel les patients font face, de sorte à améliorer les soins et les traitements tout en optimisant les prestations des services de santé. Dans le domaine de l’analyse de survie, on s’intéresse à deux types de prédiction. Dans un premier temps, il s’agit de prédire le temps avant qu’un évènement particulier ne survienne, à savoir une éventuelle réhospitalisation ou un décès. Dans un second temps, il s’agit de prédire le groupe de risque auquel appartiennent les patients en utilisant des méthodes de classification sur deux types d’indicateur que nous définirons. Le point clé de cette étude consiste à analyser l’impact des données censurées sur la qualité des prédictions.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Stamenic, Danko. « Modélisation conjointe pour données longitudinales et données de survie : analyse des facteurs prédictifs du devenir de la greffe rénale ». Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0027/document.

Texte intégral
Résumé :
La prédiction du devenir du greffon et de sa survie permettrait d’optimiser la prise en charge des patients transplantés. Le suivi des patients transplantés rénaux inclue des mesures répétées de marqueurs longitudinaux tels que la créatinine sérique et l’exposition aux médicaments immunosuppresseurs. L’approche statistique récemment proposée des modèles conjoints permet d’analyser la relation entre un processus longitudinal et la survenue d’un événement clinique. Dans la première partie de ce travail de thèse, nous avons utilisé les modèles conjoints à classes latentes pour étudier l’impact du profil de créatinine sérique au cours des 18 premiers mois post-greffe sur la survie du greffon à long terme. Dans la cohorte étudiée, trois groupes homogènes caractérisés par une trajectoire spécifique de l’évolution de la créatinine sérique en fonction du temps et un risque d’échec de greffe spécifique ont été identifiés. Les probabilités individuelles de l’échec de greffe pendant les 10 premières années post-transplantation ont été calculées sur la base du modèle conjoint développé. Chez les patients qui n’avaient pas développé d’anticorps anti-HLA spécifiques du donneur, le risque d’échec de greffe en fonction du temps était prédit avec un niveau de performance satisfaisant en termes de spécificité, sensibilité et précision.L’utilité clinique de cet outil devra être évaluée avec une approche dynamique. Dans une seconde partie, les modèles non linéaires à effets mixtes combinés avec l’approche des modèles de mélange a été utilisée pour analyser (i) l’association entre la variabilité de l’exposition au tacrolimus au cours du temps et l’adhésion au traitement rapportée par le patient et (ii) l’impact de cette variabilité d’exposition sur le risque de rejet aigu. Ce modèle a montré un effet significatif de la variabilité de l’exposition au cours du temps du tacrolimus sur la survenu de rejet aigu au-delà de 3 mois post-transplantation. Au contraire, aucune association entre l’adhésion et la variabilité de l’exposition au tacrolimus d’une part, et le risque de rejet aigu d’autre part n’a été observée dans cette étude qui n’incluait que des patients modérément non-adhérents. Ce résultat pose la question de l’impact d’une non adhésion modérée sur le devenir du greffon
Prediction of graft outcome would be useful to optimize patient care. Follow-up of kidneytransplant patients include repeated measurements of longitudinal markers, such as serum creatinine and immunosuppressive drug exposure. Recently proposed joint models areappropriate to analyze relationship between longitudinal processes and time-to-event data. In the first part of present work, we used the approach of joint latent class mixed models tostudy the impact of time-profiles of serum creatinine collected within the first 18 months after kidney transplantation on long-term graft survival. The studied cohort was parted into three homogenous classes with a specific time-evolution of serum creatinine and a specific risk of graft failure. The individual predicted probabilities of graft failure up to 10 years posttransplantation, calculated from this joint model were satisfying in terms of sensitivity, specificity and overall accuracy, for patients who had not developed de novo donor specificanti-HLA antibodies. The clinical usefulness of developed predictive tooI needs to beevaluated with a dynamic approach. In the second part, non-linear mixed effects models witha mixture of distribution for random effects were used to investigate (i) the associationbetween variability over time of tacrolimus exposure and self-reported drug adherence and(ii) the impact of this variability on the acute rejection risk. This model found a significantimpact of tacrolimus time-exposure variability on acute rejection onset beyond 3 months posttransplantation. On the contrary, no association between adherence and (i) variability oftacrolimus time-exposure and (ii) acute rejection was observed in our study which included moderate non-adherent patients only. This result questions the impact of moderate nonadherence on graft outcome
Styles APA, Harvard, Vancouver, ISO, etc.
9

Desmée, Solène. « Modélisation conjointe de données longitudinales non-linéaires et de données de survie : application au cancer de la prostate métastatique ». Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC115.

Texte intégral
Résumé :
L'évaluation de traitements pour le cancer de la prostate métastatique (CPM) repose sur le temps de décès et des mesures de PSA. La modélisation conjointe analysant simultanément évolution du biomarqueur et survie est alors adaptée, mais souvent limitée à un processus longitudinal linéaire. L'objectif de cette thèse est d'étudier la modélisation conjointe quand la cinétique du biomarqueur est décrite par un modèle non-linéaire à effets mixtes (MNLEM). Nous avons montré par simulations que l'algorithme SAEM de Monolix estimait sans biais les paramètres d'un modèle conjoint non-linéaire, avec un risque de première espèce et une puissance à détecter un lien entre les processus satisfaisants. Puis nous avons développé un modèle conjoint mécanistique pour caractériser le lien entre cinétique du PSA et survie chez des patients ayant un CPM et traités par docetaxel. Le modèle structurel du MNLEM a été défini par un système d'équations différentielles (ED) décrivant le mécanisme de production du PSA par des cellules sensibles ou résistante au docetaxel. Le modèle final souligne le rôle prépondérant sur la survie des cellules résistantes, non-observées. Afin de proposer des prédictions individuelles dynamiques, une méthode bayésienne a été implémentée pour fournir la distribution des paramètres individuels. Les performances prédictives du modèle ont pu être évaluées à l'aide de métriques de discrimination et de calibration dépendant du temps. Ces travaux ouvrent la voie au développement de modèles conjoints mécanistiques, tenant compte de l'influence de plusieurs biomarqueurs sur la survie, au moyen d'ED, afin d'améliorer évaluation thérapeutique et prédiction
Treatment evaluation for metastatic Castration-Resistant Prostate Cancer (mCRPC) relies on time-to-death. Prostate-specific antigen (PSA), assumed to be linked to survival, is frequently measured. Joint modelling which consists in the simultaneous analyse of biomarker's evolution and survival is particularly adapted, but often limited to linear longitudinal process. The objective of this PhD is to study joint modelling when biomarker kinetics is described by a nonlinear mixed-effects model (NLMEM). We established by simulations that the SAEM algorithm of Monolix provided unbiased parameter estimations of a nonlinear joint model, with satisfying type 1 error and power to detect a link between the processes. Then we developed a mechanistic joint model to characterize the relationship between PSA kinetics and survival in mCRPC patients treated by docetaxel. The structural model of the NLMEM was defined by a system of differential equations (DE) describing the mechanism of PSA production by docetaxel-sensitive and -resistant cells. Model selection and evaluation were detailed. The final model showed the predominant role of the non-observed resistant cells on survival. Lastly we expanded tools developed in a linear context for individual dynamic prediction using nonlinear joint model. A Bayesian method provided the distribution of individual parameters. Predictive performances of the model were assessed using time-dependent discrimination and calibration metrics. These works open the way for the development of mechanistic joint models, which enable to account for the impact of several biomarkers on survival through DE, in order to improve therapeutic evaluation and prediction
Styles APA, Harvard, Vancouver, ISO, etc.
10

Lopez, Olivier. « Réduction de dimension en présence de données censurées ». Phd thesis, Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00195261.

Texte intégral
Résumé :
Nous considérons des modèles de régression où la variable expliquée est censurée à droite aléatoirement. Nous proposons de nouveaux estimateurs de la fonction de régression dans des modèles paramétriques, et nous proposons une procédure de test non paramétrique d'adéquation à ces modèles. Nous prolongeons ces méthodes à l'étude du modèle semi-paramétrique "single-index", généralisant ainsi des techniques de réduction de dimension utilisées en l'absence de censure. Nous nous penchons tout d'abord sur le cas d'un modèle où la variable de censure est indépendante de la variable expliquée ainsi que des variables explicatives. Nous travaillons dans un second temps dans un cadre moins restrictif où la variable expliquée et la censure sont indépendantes conditionnellement aux variables explicatives. Une difficulté spécifique à ce dernier type de modèle tient en l'impossibilité des techniques actuelles à estimer une espérance conditionnelle (de façon paramétrique ou non) en présence de plus d'une
variable explicative. Nous développons une nouvelle approche de réduction de la dimension afin de résoudre ce problème.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Katsahian, Sandrine. « Modèles statistiques de survie pour données corrélées : l'exemple de la greffe de moelle ». Paris 6, 2007. http://www.theses.fr/2007PA066620.

Texte intégral
Résumé :
Modèles statistiques de survie pour données corrélées : L'exemple de la greffe de moelle L'analyse des données de survie multivariées est très fréquente en recherche clinique, notamment dans l'évaluation de la greffe de moelle, et soulève plusieurs questions méthodologiques. Ce travail s'est centré sur trois parties : (i) le développement, pour des modèles à risques compétitifs complexes, d'un estimateur non paramétrique des fonctions d'incidence cumulée et d'une statistique de test de comparaison de ces fonctions, (ii) la comparaison de modèles de survie lorsque les échantillons sont structurés en grappes (ou clusters), et (iii) la proposition d'un modèle à effets mixtes de régression pour la fonction d'incidence cumulée pour données en grappes. Ces développements ont permis de répondre à des questions cliniques : l'effet "greffe versus leucémie" après allogreffe, le bénéfice de l'autogreffe à partir d'une méta-analyse sur données individuelles, et l'effet centre sur le devenir d'allogreffes à partir de données de registre.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Rousseau, Vanessa. « Modèles fragilisés de survie relative appliqués aux données censurées dans le cas de la transplantation rénale ». Montpellier 1, 2008. http://www.theses.fr/2008MON1T012.

Texte intégral
Résumé :
L'analyse des données de survie permet une meilleure connaissance des pathologies et s'intéresse particulièrement au délai d'apparition d'un événement au cours du temps, le plus souvent le décès. Un problème majeur dans l'analyse de survie est de mesurer la part des décès imputables à la pathologie étudiée. Ce problème est souvent lié au manque d'information sur les causes de décès du fait de l'imprécision des certificats de décès ou de la faible fréquence des autopsies. Ainsi, une approche permettant d'estimer la survie spécifique à la pathologie étudiée sans nécessité de connaître l'information sur la cause de décès est proposée. Il s'agit de la survie relative. Par ailleurs, une hypothèse fondamentale en analyse de survie est que la population étudiée est homogène. Or, dans certaines situations, lorsque les données concernent, par exemple, des jumeaux, des familles ou des évènements répétés sur un même patient, cette hypothèse est remise en cause. Dans ce cas, la fragilité offre un moyen de modéliser la dépendance des individus appartenant à un même groupe. Cette dépendance non mesurable est souvent causée par des facteurs environnementaux ou génétiques. De plus, une autre hypothèse souvent faite dans les modèles de survie est celle de l'indépendance entre le délai de survenue de l'évènement et le délai de survenue de la censure. Dans certaines situations telles que les censures non planifiées ou non administratives, cette hypothèse n'est pas valable. Pour cela, un modèle multi-états considérant le décès et la censure comme des états absorbants est utilisé pour rendre la censure informative. Les différentes méthodes sont appliquées à la bases DIVAT des transplantés rénaux.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Mabika, Bienvenu. « Analyse bayésienne des données de survie : Application à des essais cliniques en pharmacologie ». Rouen, 1999. http://www.theses.fr/1999ROUES100.

Texte intégral
Résumé :
Cette thèse est composée de deux parties distinctes : la première relève des procédures bayésiennes des données de survie et la seconde la méthodologie d'application des procédures bayésiennes. Nous étudions dans la première partie les méthodes bayésiennes permettant de comparer deux distributions de survie de Weibull censurées. Les résultats sont présentés en utilisant l'hypothèse selon laquelle les paramètres de formes sont quelconques. Pour une classe de loi a priori convenablement choisie nous donnons les distributions a posteriori, les intervalles à plus fortes densités a posteriori (HPD) des paramètres d'intérêts nécessaires pour montrer soit la supériorité soit l'équivalence. Nous introduisons ensuite un estimateur de Bayes de la fonction de survie à un temps quelconque. Nous proposons et étudions un test bayésian pour l'équivalence de deux fonctions de survie dans le cas des modèles à taux de risques constant et non constant. Un algorithme utilisant la méthode de simulation de l'échantillonnage de Gibbs est donné pour résoudre ce problème de test. En outre, une étude prédictive est abordée pour interrompre l'étude de façon précoce. Les densités prédictives sont utilisées pour obtenir une règle d'arrêt dans le cas des analyses intermédiaires. Comme dans toute étude clinique, nous proposons deux approches de détermination du nombre de patients nécessaire en utilisant les critères usuels : l'une est basée sur la simulation des densités prédictives, l'autre sur les approximations normales des densités prédictives. Enfin, nous généralisons le modèle de Weibull par une approche bayésienne avec les variables explicatives qui est très proche du modèle semi-paramétrique de Cox. La seconde partie est consacrée aux exemples d'applications à des données d'essais cliniques pour comparer deux médicaments ou pour déterminer le nombre de patients nécessaire
Two distinct sections constitute this thesis : the first section deals with the Bayesian procedures of survival data and the second with the applying procedures of Bayesian methods. The methods are illustrated with some examples of a mortality study in cardiologic and cancer research where a new treatment is compared to a standard treatment. In the first section, we study the Bayesian framework allowing to compare two Weibull survival distributions with unequal shape parameters, in the case of right censored survival data obtained for two independent samples is considered. For a family of appropriate priors we give the posterior distributions and the highest posterior density intervals about relevant parameters allowing to search for a conclusion of clinical superiority of the treatment. We introduce a Bayesian estimator of the survival function. We propose and study a Bayesian testing for equivalence of two survival functions and an algorithm using Gibbs sampling allowed to resolve this test. Moreover the predictive distributions are used to obtain an early stopping rule in the case of interim analyses. On using some criteria of determination of number patient we propose two approaches. We generalize the Weibull model by a Bayesian approach with covariates, this approach is like to Cox model. The methods inference used there do appeal to Markov Chain Monte Carlo methods
Styles APA, Harvard, Vancouver, ISO, etc.
14

Fourmanoit, N. « Analyse des 5 ans de données de l'expérience SuperNova Legacy Survey ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00587450.

Texte intégral
Résumé :
Le SuperNova Legacy Survey (SNLS) est un programme de détection et de suivi photométrique de plusieurs centaines de supernovæ de type Ia (SNe Ia) dont l'objectif est de retracer l'histoire de l'expansion cosmologique afin d'en déduire une caractérisation de la nature de l'énergie noire, c'est-à-dire une mesure de son paramètre d'état wDE. La prise de données du SNLS est arrivée à son terme en juillet 2008 après 5 ans de programme. Le travail réalisé dans le cadre de cette thèse a consisté en l'analyse de ces 5 ans de données SNLS et la photométrie des 419 SNe Ia détectées et spectroscopiquement identifiées. Pour chaque supernova, les courbes de lumière dans les bandes gMrMiMzM sont produites, calibrées et ajustées par un modèle spectrophotométrique. Une nouvelle méthode de photométrie, sans rééchantillonnage des pixels des images, est également implémentée dans le cadre de cette thèse. En préservant les propriétés statistiques des pixels, elle permet de mieux contrôler les incertitudes sur la mesure des flux, et par là même, la précision sur la mesure des paramètres cosmologiques qui s'en déduit. Les performances des deux méthodes sont testées et comparées sur les étoiles de calibration et les supernovae. Si la photométrie sans rééchantillonnage permet une estimation plus exacte des incertitudes de mesure du flux, la précision et la stabilité des deux méthodes sont quant à elles similaires. Un lot de SNe Ia de statistique et de qualité inédites est maintenant disponible pour l'analyse de cosmologie. Avec le complément de supernovæ proches de programmes extérieurs, une contrainte à 5% sur la nature du paramètre d'état de l'énergie noire est donc pour la première fois envisageable.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Fourmanoit, Nicolas. « Analyse des 5 ans de données de l'expérience SuperNova Legacy Survey ». Paris 6, 2010. http://www.theses.fr/2010PA066282.

Texte intégral
Résumé :
Le SuperNova Legacy Survey est un programme de détection et de suivi photométrique de plusieurs centaines de supernoae de type Ia dont l'objectif est de retracer l'histoire de l'expansion cosmologique afin d'en déduire une caractérisation de la nature de l'énergie noire, c'est-à-dire une mesure de son paramètre d'état. La prise de données du SNLS est arrivée à son terme en juillet 2008 après 5 ans de programme. Le travail réalisé dans le cadre de cette thèse a consisté en l'analyse de ces 5 ans de données SNLS et en la photométrie des 419 supernovae Ia détectées et spectroscopiquement identifiées. Pour chaque supernova, les courbes de lumière dans les bandes g_M r_M i_M z_M sont produites, calibrées et ajustées par un modèle spectrophotométrique. Une nouvelle méthode de photométrie, sans rééchantillonnage des pixels des images, est également implémentée. En préservant les propriétés statistiques des pixels, elle permet de mieux contrôler les incertitudes sur la mesure des flux, et par là même, la précision sur la mesure des paramètres cosmologiques qui s'en déduit. Les performances des deux méthodes sont testées et comparées sur les étoiles de calibration et les supernovae. Si la photométrie sans rééchantillonnage permet une estimation plus exacte des incertitudes de mesure du flux, la précision et la stabilité des deux méthodes sont quant à elles similaires. Un lot de supernovae de statistique et de qualité inédites est maintenant disponible pour l'analyse de cosmologie. Avec le complément de SNe proches de programmes extérieurs, une contrainte à 5% sur la nature du paramètre d'état de l'énergie noire est donc pour la première fois envisageable.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Leconte-Lavaud, Evelyne. « Modeles et tests pour l'analyse statistique des donnees censurees multivariees ». Paris 11, 1995. http://www.theses.fr/1995PA11T014.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Rouam, Sigrid Laure. « Développement d'un indice de séparabilité adapté aux données de génomique en analyse de survie ». Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00718743.

Texte intégral
Résumé :
Dans le domaine de l'oncogénomique, l'un des axes actuels de recherche est l'identification de nouveaux marqueurs génétiques permettant entre autres de construire des règles prédictives visant à classer les patients selon le risque d'apparition d'un événement d'intérêt (décès ou récidive tumorale). En présence de telles données de haute dimension, une première étape de sélection parmi l'ensemble des variables candidates est généralement employée afin d'identifier les marqueurs ayant un intérêt explicatif jugé suffisant. Une question récurrente pour les biologistes est le choix de la règle de sélection. Dans le cadre de l'analyse de survie, les approches classiques consistent à ranger les marqueurs génétiques à partir du risque relatif ou de quantités issues de test statistiques (p-value, q-value). Cependant, ces méthodes ne sont pas adaptées à la combinaison de résultats provenant d'études hétérogènes dont les tailles d'échantillons sont très différentes.Utiliser un indice tenant compte à la fois de l'importance de l'effet pronostique et ne dépendant que faiblement de la taille de l'échantillon permet de répondre à cette problématique. Dansce travail, nous proposons un nouvel indice de capacité de prédiction afin de sélectionner des marqueurs génomiques ayant un impact pronostique sur le délai de survenue d'un évènement.Cet indice étend la notion de pseudo-R2 dans le cadre de l'analyse de survie. Il présente également une interprétation originale et intuitive en terme de " séparabilité ". L'indice est tout d'abord construit dans le cadre du modèle de Cox, puis il est étendu à d'autres modèles plus complexes à risques non-proportionnels. Des simulations montrent que l'indice est peu affectée par la taille de l'échantillon et la censure. Il présente de plus une meilleure séparabilité que les indices classiques de la littérature. L'intérêt de l'indice est illustré sur deux exemples. Le premier consiste à identifier des marqueurs génomiques communs à différents types de cancers. Le deuxième, dans le cadre d'une étude sur le cancer broncho-pulmonaire, montre l'intérêt de l'indice pour sélectionner des facteurs génomiques entraînant un croisement des fonctions de risques instantanés pouvant être expliqué par un effet " modulateur " entre les marqueurs. En conclusion, l'indice proposé est un outil prometteur pouvant aider les chercheurs à identifier des listes de gènes méritant des études plus approfondies.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Chagny, Gaëlle. « Estimation adaptative avec des données transformées ou incomplètes. Application à des modèles de survie ». Phd thesis, Université René Descartes - Paris V, 2013. http://tel.archives-ouvertes.fr/tel-00863141.

Texte intégral
Résumé :
Cette thèse présente divers problèmes d'estimation fonctionnelle adaptative par sélection d'estimateurs en projection ou à noyaux, utilisant des critères inspirés à la fois de la sélection de modèles et des méthodes de Lepski. Le point commun de nos travaux est l'utilisation de données transformées et/ou incomplètes. La première partie est consacrée à une procédure d'estimation par "déformation'', dont la pertinence est illustrée pour l'estimation des fonctions suivantes : régression additive et multiplicative, densité conditionnelle, fonction de répartition dans un modèle de censure par intervalle, risque instantané pour des données censurées à droite. Le but est de reconstruire une fonction à partir d'un échantillon de couples aléatoires (X,Y). Nous utilisons les données déformées (ф(X),Y) pour proposer des estimateurs adaptatifs, où ф est une fonction bijective que nous estimons également (par exemple la fonction de répartition de X). L'intérêt est double : d'un point de vue théorique, les estimateurs ont des propriétés d'optimalité au sens de l'oracle ; d'un point de vue pratique, ils sont explicites et numériquement stables. La seconde partie s'intéresse à un problème à deux échantillons : nous comparons les distributions de deux variables X et Xₒ au travers de la densité relative, définie comme la densité de la variable Fₒ(X) (Fₒ étant la répartition de Xₒ). Nous construisons des estimateurs adaptatifs, à partir d'un double échantillon de données, possiblement censurées. Des bornes de risque non-asymptotiques sont démontrées, et des vitesses de convergences déduites.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Rouam, Sigrid Laure. « Développement d’un indice de séparabilité adapté aux données de génomique en analyse de survie ». Thesis, Paris 11, 2011. http://www.theses.fr/2011PA11T006/document.

Texte intégral
Résumé :
Dans le domaine de l’oncogénomique, l’un des axes actuels de recherche est l’identification de nouveaux marqueurs génétiques permettant entre autres de construire des règles prédictives visant à classer les patients selon le risque d’apparition d’un événement d’intérêt (décès ou récidive tumorale). En présence de telles données de haute dimension, une première étape de sélection parmi l’ensemble des variables candidates est généralement employée afin d’identifier les marqueurs ayant un intérêt explicatif jugé suffisant. Une question récurrente pour les biologistes est le choix de la règle de sélection. Dans le cadre de l’analyse de survie, les approches classiques consistent à ranger les marqueurs génétiques à partir du risque relatif ou de quantités issues de test statistiques (p-value, q-value). Cependant, ces méthodes ne sont pas adaptées à la combinaison de résultats provenant d’études hétérogènes dont les tailles d’échantillons sont très différentes.Utiliser un indice tenant compte à la fois de l’importance de l’effet pronostique et ne dépendant que faiblement de la taille de l’échantillon permet de répondre à cette problématique. Dans ce travail, nous proposons un nouvel indice de capacité de prédiction afin de sélectionner des marqueurs génomiques ayant un impact pronostique sur le délai de survenue d’un évènement.Cet indice étend la notion de pseudo-R2 dans le cadre de l’analyse de survie. Il présente également une interprétation originale et intuitive en terme de « séparabilité ». L’indice est tout d’abord construit dans le cadre du modèle de Cox, puis il est étendu à d’autres modèles plus complexes à risques non-proportionnels. Des simulations montrent que l’indice est peu affectée par la taille de l’échantillon et la censure. Il présente de plus une meilleure séparabilité que les indices classiques de la littérature. L’intérêt de l’indice est illustré sur deux exemples. Le premier consiste à identifier des marqueurs génomiques communs à différents types de cancers. Le deuxième, dans le cadre d’une étude sur le cancer broncho-pulmonaire, montre l’intérêt de l’indice pour sélectionner des facteurs génomiques entraînant un croisement des fonctions de risques instantanés pouvant être expliqué par un effet « modulateur » entre les marqueurs. En conclusion, l’indice proposé est un outil prometteur pouvant aider les chercheurs à identifier des listes de gènes méritant des études plus approfondies
In oncogenomics research, one of the main objectives is to identify new genomic markers so as to construct predictive rules in order to classify patients according to time-to-event outcomes (death or tumor relapse). Most of the studies dealing with such high throughput data usually rely on a selection process in order to identify, among the candidates, the markers having a prognostic impact. A common problem among biologists is the choice of the selection rule. In survival analysis, classical procedures consist in ranking genetic markers according to either the estimated hazards ratio or quantities derived from a test statistic (p-value, q-value). However, these methods are not suitable for gene selection across multiple genomic datasets with different sample sizes.Using an index taking into account the magnitude of the prognostic impact of factors without being highly dependent on the sample size allows to address this issue. In this work, we propose a novel index of predictive ability for selecting genomic markers having a potential impact on timeto-event outcomes. This index extends the notion of "pseudo-R2" in the ramework of survival analysis. It possesses an original and straightforward interpretation in terms of "separability". The index is first derived in the framework of the Cox model and then extended to more complex non-proportional hazards models. Simulations show that our index is not substantially affected by the sample size of the study and the censoring. They also show that its separability performance is higher than indices from the literature. The interest of the index is illustrated in two examples. The first one aims at identifying genomic markers with common effects across different cancertypes. The second shows, in the framework of a lung cancer study, the interest of the index for selecting genomic factor with crossing hazards functions, which could be explained by some "modulating" effects between markers. The proposed index is a promising tool, which can help researchers to select a list of features of interest for further biological investigations
Styles APA, Harvard, Vancouver, ISO, etc.
20

Belot, Aurélien. « Modélisation flexible des données de survie en présence de risques concurrents et apports de la méthode du taux en excès ». Aix-Marseille 2, 2009. http://www.theses.fr/2009AIX20709.

Texte intégral
Résumé :
En épidémiologie, la probabilité de survie (associée au délai jusqu'au décès) d’une cohorte de patients est un indicateur-clé de l’impact d’une maladie. Mais, cette survie peut être estimée selon diverses causes de décès qui sont alors des événements concurrents. Dans cette thèse, après présentation théorique de ce cadre d’analyse, nous proposons un modèle flexible qui permet d'estimer conjointement les taux des événements concurrents ainsi que les effets de facteurs pronostiques en fonction du temps écoulé depuis le diagnostic. De plus, ce modèle permet de comparer les effets des facteurs pronostiques sur les taux des événements concurrents ; il est illustré par l’analyse de données sur patients atteints de cancer colorectal aux Etats-Unis. Mais les causes des décès s’avèrent parfois difficiles à obtenir ou inutilisables (cas des registres qui ne recueillent pas la cause de décès en routine). La méthode statistique du taux en excès permet de s’affranchir des causes de décès en utilisant la mortalité de la population générale pour estimer la mortalité en excès liée directement ou non à la maladie. Une stratégie d'analyse est proposée pour estimer la mortalité en excès ainsi que les effets dépendants du temps et/ou non linéaires des facteurs pronostiques. En plus du décès, la méthode des événements concurrents est appliquée aussi aux événements intercurrents (récidives ou métastases). Un modèle combinant les méthodes des événements concurrents et du taux en excès est proposé pour estimer les taux des événements intercurrents et la mortalité en excès ; il est appliqué à des données de registres FRANCIM sur patients atteints de cancer colorectal et traités à but curatif
In epidemiology, the probability of survival (associated to the delay until death) of a cohort of patients is a key indicator of the impact of the disease. But, this survival may be estimated according to various causes of death; these constitute then competing events. In this dissertation, after presenting the analysis setting, we propose a flexible model to estimate jointly the hazards of competing events as well as the effects of prognostic factors in function of the time elapsed since diagnosis. Furthermore, this model allows comparing the effects of the prognostic factors on the competing events; it was applied to an analysis of data on an American cohort of patients with colorectal cancer. However, the causes of death may sometimes be missing or invalid (case of registries that do not routinely collect the causes of death). The statistical method of the excess hazard makes it possible to overcome the need for the causes of death by using the general population mortality to estimate the excess mortality directly or indirectly linked to the disease. An analysis strategy is proposed to estimate the excess mortality as well as the non-linear and/or time-dependent effects of the prognostic factors. In addition to death, the competing events method is also applied to intercurrent events such as relapse or metastasis. A model that combines the competing events and the excess hazard methods is proposed to estimate the hazards of intercurrent events and the excess mortality; it is applied to data from FRANCIM registries on colorectal cancer cases with curative-intent treatment
Styles APA, Harvard, Vancouver, ISO, etc.
21

Héraud, Bousquet Vanina. « Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes ». Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T017/document.

Texte intégral
Résumé :
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses
The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses
Styles APA, Harvard, Vancouver, ISO, etc.
22

Allart, Thibault. « Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo ». Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
Styles APA, Harvard, Vancouver, ISO, etc.
23

Allart, Thibault. « Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo ». Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
Styles APA, Harvard, Vancouver, ISO, etc.
24

Rondeau, Virginie. « Analyse par vraisemblance pénalisée de données de survie groupées : application à la relation entre aluminium et démence ». Bordeaux 2, 2000. http://www.theses.fr/2000BOR28719.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Lueza, Béranger. « Estimation du bénéfice de survie à partir de méta-analyse sur données individuelles et évaluation économique ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS268/document.

Texte intégral
Résumé :
Le bénéfice de survie restreint à un horizon temporel donné a été proposé comme mesure alternative aux mesures relatives de l’effet d’un traitement notamment dans le cas de non proportionnalité des risques de décès. Le bénéfice de survie restreint correspond à la différence des survies moyennes entre deux bras de traitement et s’exprime en nombre d’années de vie gagnées. Dans la littérature, cette mesure est présentée comme plus intuitive que le hazard ratio et plusieurs auteurs ont proposé son utilisation pour le design et l’analyse d’un essai clinique. Toutefois, ce n’est pas actuellement la mesure qui est utilisée de manière courante dans les essais randomisés. Cette mesure s’applique quelle que soit la distribution des temps de survie et est adaptée si l’hypothèse des risques proportionnels n’est pas respectée. De plus, le bénéfice de survie restreint peut être utilisé en évaluation médico-économique où la mesure d’un effet absolu est nécessaire (nombre d’années de vie gagnées pondérées ou non par la qualité de vie). Si l’on souhaite estimer le bénéfice de survie restreint à partir d’une méta-analyse sur données individuelles, se pose alors la question de prendre en compte l’effet essai dû à la structure hiérarchique des données. L’objectif de cette thèse était de comparer des méthodes statistiques d’estimation du bénéfice de survie restreint à partir de données individuelles d’une méta-analyse d’essais cliniques randomisés. Le point de départ a été une étude de cas (étude coût-efficacité) réalisée à partir des données de la Meta-Analysis of Radiotherapy in Lung Cancer. Cette étude a montré que les cinq méthodes d’estimation étudiées conduisaient à des estimations différentes du bénéfice de survie et de son intervalle de confiance. Le choix de la méthode d’estimation avait également un impact sur les résultats de l’analyse coût-efficacité. Un second travail a consisté à mener une étude de simulation pour mieux comprendre les propriétés des méthodes d’estimation considérées en termes de biais moyen et d’erreur-type. Enfin, la dernière partie de la thèse a mis en application les enseignements de cette étude de simulation au travers de trois méta-analyses sur données individuelles dans le cancer du nasopharynx et dans le cancer du poumon à petites cellules
The survival benefit restricted up to a certain time horizon has been suggested as an alternative measure to the common relative measures used to estimate the treatment effect, especially in case of non-proportional hazards of death. The restricted survival benefit corresponds to the difference of the two restricted mean survival times estimated for each treatment arm, and is expressed in terms of life years gained. In the literature, this measure is considered as more intuitive than the hazard ratio and many authors have suggested its use for the design and the analysis of clinical trials. However, it is not currently the most used measure in randomized trials. This measure is valid under any distribution of the survival times and is adapted if the proportional hazards assumption does not hold. In addition, the restricted survival benefit can be used in medico-economic evaluation where an absolute measure of the treatment effect is needed (number of [quality adjusted] life years gained). If one wants to estimate the restricted survival benefit from an individual participant data meta-analysis, there is a need to take into account the trial effect due to the hierarchical structure of the data. The aim of this thesis was to compare statistical methods to estimate the restricted survival benefit from an individual participant data meta-analysis of randomized trials. The starting point was a case study (cost-effectiveness analysis) using data from the Meta-Analysis of Radiotherapy in Lung Cancer. This study showed that the five investigated methods yielded different estimates for the restricted survival benefit and its confidence interval. The choice of a method to estimate the survival benefit also impacted on cost-effectiveness results. Our second project consisted in a simulation study to have a better understanding of the properties of the investigated methods in terms of bias and standard error. Finally, the last part of the thesis illustrated the lessons learned from the simulation study through three examples of individual participant data meta-analysis in nasopharynx cancer and in small cell lung cancer
Styles APA, Harvard, Vancouver, ISO, etc.
26

Roué, Tristan. « Épidémiologie des cancers en Guyane : Analyse des données du registre des cancers de Guyane ». Thesis, Antilles-Guyane, 2014. http://www.theses.fr/2014AGUY0743/document.

Texte intégral
Résumé :
L'objectif du registre des cancers de Guyane est de collecter l ensemble des tumeurs invasives et/ou in situ survenues depuis le 1er janvier 2003 chez des patients vivant en Guyane, quels que soient la localisation de la tumeur, le lieu de diagnostic et de traitement. Cette thèse a pour but de décrire la population atteinte d un cancer afin d améliorer les connaissances sur cette maladie et ainsi de permettre aux actions de santé publique d être plus efficaces.De 2003 à 2009, le taux d incidence des cancers standardisé sur l âge était, dans les deux sexes, 30% inférieur en Guyane par rapport à la France métropolitaine et n était pas différent de celui d Amérique du Sud.Nous avons comparé l incidence, la mortalité et la survie relative des patientes atteintes d un cancer invasif du sein (CIS) et des patientes atteintes d un cancer invasif du col de l utérus (CIC) entre la Guyane et la métropole.Le ratio incidence/mortalité indiquait que les cancers du sein étaient de plus mauvais pronostic en Guyane par rapport à la métropole.La survie relative des femmes atteintes d un CIS était inférieure en Guyane par rapport à la France métropolitaine.En Guyane, le taux standardisé d incidence du cancer du col de l utérus était 4 fois plus élevé qu en métropole. Les femmes vivant dans l intérieur de la Guyane semblaient être diagnostiquées à un stade plus tardif et plus souvent sur symptômes que les femmes du littoral. L accès aux soins des migrants est un challenge et une source d inégalité de santé. La détection précoce des cancers à travers des programmes de prévention est cruciale pour améliorer la survie par cancer et notamment chez les patients étrangers
The objective of the cancer registry of French Guiana is to compile all patients living in French Guiana with malignant invasive pathology and/or in situ lesions starting January 1st 2003 in persons living in French Guiana, whatever the tumoral location and the place of diagnosis and care. This study aimed to describe the population with invasive cancer to improve the knowledge about this disease in order to target public health interventions more effectively.The age standardised incidence rate was 30% times lower than in France in both sexes and the same than in South America.We compared incidence and relative survival of patients with invasive breast cancer (IBC) and patients with invasive cervical cancer (ICC) between women from French Guiana and metropolitan France.The ratio between incidence and mortality showed that the prognosis of IBC in French Guiana was worse than in metropolitan France.The relative survival rate among women with IBC in French Guiana was lower than among women in metropolitan France.In French Guiana, the age-standardized incidence rate of cervical cancer was four times higher than in France. Women living in remote areas seemed to be diagnosed later and more often following symptoms.Access to care for migrants is challenging and sustains health inequalities. Early detection through prevention programs is crucial for increasing cancer survival notably for foreign-born patients. Further studies with more patients and other variables could improve the knowledge about these diseases
Styles APA, Harvard, Vancouver, ISO, etc.
27

Jaunâtre, Kévin. « Analyse et modélisation statistique de données de consommation électrique ». Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Texte intégral
Résumé :
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
Styles APA, Harvard, Vancouver, ISO, etc.
28

Corbière, Fabien. « Modèles de mélange en analyse de survie en présence de données groupées : application à la tremblante du mouton ». Phd thesis, Université Victor Segalen - Bordeaux II, 2007. http://tel.archives-ouvertes.fr/tel-00195495.

Texte intégral
Résumé :
Les facteurs de risque individuels et environnementaux associés à la contamination par l'agent de la tremblante classique du mouton et à la durée d'incubation des animaux infectés demeurent mal connus. En l'absence de diagnostic antemortem précoce, la longue durée d'incubation de la maladie et les durées de vie limitées des animaux conduisent à une connaissance partielle du statut sanitaire des animaux. De plus, l'analyse doit tenir compte du fait qu'une partie seulement des animaux se contamine.
Nous utilisons des modèles d'analyse des données de survie prenant en compte l'existence d'une fraction non à risque. Nous proposons une approche par vraisemblance pénalisée, qui allie les avantages des modèles paramétriques et semi paramétriques existants. Nous nous intéressons ensuite aux modèles paramétriques de survie avec fraction non à risque et effets aléatoires afin de tenir compte du regroupement des animaux dans les élevages. Ces différentes approches sont évaluées à l'aide d'études de simulations.
L'application des ces modèles aux données issues du suivi longitudinal d'élevages infectés des Pyrénées Atlantiques (France) confirme le rôle déterminant du génotype au gène PRP sur le risque de contamination et les durées d'incubation. Nos résultats suggèrent de plus que la contamination par l'agent infectieux a principalement lieu en période néonatale. Enfin la forte hétérogénéité des risques de contamination et des durées d'incubation mise en évidence entre troupeaux pourrait être partiellement expliquée par la prise en compte de la structure génétique des élevages et du nombre d'animaux infectés présents.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Colas, Sandrine. « Etude des déterminants de la survie prothétique des prothèses de hanche en France, à partir des données du SNIIRAM ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS421/document.

Texte intégral
Résumé :
Le nombre de prothèses totales de hanche (PTH) posées en France est en forte augmentation en France depuis plusieurs années : +10% en 4 ans, avec plus de 100 000 poses en 2013. Cette augmentation est liée à la fois au vieillissement de la population et à l’élargissement de la patientèle implantée : les PTH sont posées chez des patients plus jeunes et actifs, et à l’autre extrême, chez des patients de plus en plus âgés, présentant davantage de comorbidités Le volume de pose de PTH, leurs caractéristiques, leur contexte de pose et la population implantée n’ont pas encore été décrits de manière exhaustive en France, contrairement aux pays disposant de registre d’arthroplastie (les pays nordiques et anglo-saxons). L'objectif de ma thèse était d'étudier quels sont les facteurs pronostics de la survie des PTH. La recherche portait sur les caractéristiques des implants, les caractéristiques des patients et les caractéristiques des séjours d’implantation. Les bases de données utilisées sont celles du SNIIRAM de 2006 à 2016, comprenant les remboursements de soins en ville (de 2006 à 2016) et à l’hôpital (de 2006 à 2015) des assurés affiliés à un régime obligatoire de l’assurance maladie. Environ 100 000 PTH sont implantées chaque année en France. La cohorte globale des patients porteurs de prothèse de hanche, implantée de 2006 à 2014 comprend environ un million de patients. Les études de cette thèse ont été conduites sur des cohortes de 100 000 à 300 000 patients, inclus de 2009 à 2012 et suivis jusqu’en 2013 à 2014.Ces études indiquent que les caractéristiques prothétiques, couple de frottement, mode d’ancrage, choix d’un col modulaire, sont associés à la survie de la PTH à court et moyen terme. Il en est de même pour les caractéristiques des patients, âge, sexe, diabète, ainsi que l’exposition à certains médicaments, dont les benzodiazépines. Les caractéristiques du centre dans lequel est implantée la prothèse, en particulier le volume d’activité du chirurgien implanteur, sont associées à la survie prothétique.L’utilisation des bases de données du PMSI permet une surveillance active des PTH et ont permis d’identifier à court terme certains facteurs de risque d’échec de la prothèse. Environ 100 000 patients sont implantés par PTH en France chaque année. La révision prothétique est une intervention à risques, avec des taux de complications per et post-opératoires plus élevés que pour la primo-implantation. Mieux comprendre les facteurs liés à l’échec de la PTH et agir en faveur de la survie prothétique sont donc des enjeux de santé publique. Nos travaux ont pour finalité de faire évoluer les pratiques et encourager les choix techniques les plus favorables pour la survie prothétique, de manière à contribuer à l’amélioration de la santé des patients
More and more Total Hip Replacement (THR) are performed in France (PTH) these last decades ; a 10% increase in 4 years has been observed, with 100 000 implantations on 2013.This increase can is related to the ageing of the population as well as the expansion of the implanted population: on one side younger and more active patients are now implanted, and on the other side, older patients (more than 80), often with other comorbidities, are now implanted.Le number of implanted THR, their characteristics, the context of implantation et the characteristics of the implanted population in France have never been comprehensively described so far. Some data are available from international registries (from Nordic, British, North American coutries and Australia), but not in France. The aim of my PhD was to study which factors were associated with the THR survivorship. My research covered the characteristics of the implants, of the patients and of the implanting centers.The data we used were from the French National Health Insurance Information System, SNIIRAM (Système National d'Information Inter-Régimes de l'Assurance Maladie) from 2006 to 2016. About 100 000 THR are implanted annually in France; the total cohort of THR implanted patients between 2006 and 2014 comprises about a million subjects. The cohorts studied in my work comprises between 100 000 and 300 000 patients, included between 2009 and 2012 and followed until 2013 to 2014.These cohorts studies showed that the implants characteristics, bearing surface, cementation, choice of a modular neck are associated with the prosthetic survivorship at short and midterm follow-up. We found the same with the patients characteristics, age, sex, diabetes mellitus as well as exposure to drugs such as benzodiazepines. The characteristics if the implanting center are also associated to the prosthetic survivorship, more specifically the volume of activity of the surgeon who performed the hip arthroplasty.The PMSI data are a valuable tool to perform an active surveillance of THR survivorship and using them allowed us to identify several risk factors of revision at short to midterm follow-up. About 100 000 patients receive a THR annually in France and THR revision is a surgical operation far more complicated than primary implantation, with higher complications rate during and post-operation. Being able to identifiy the factors associated with THR revision and being able to take the measures improving the THR survivorship are indeed a major Public health challenges. Our work' purpose is to assess the current practices and to provide evidences to promote technical choices propitious to THR survivorship, to contribute to health quality improvement
Styles APA, Harvard, Vancouver, ISO, etc.
30

Touraine, Celia. « Modèles illness-death pour données censurées par intervalle : application à l'étude de la démence ». Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22099/document.

Texte intégral
Résumé :
Lorsqu'on étudie la démence à partir de données de cohorte, les sujets sont suivis par intermittence ce qui donne lieu à des temps d'apparition de la démence censurés par intervalle et ont un risque important de décès, d'où un nombre non négligeable de sujets qui décèdent sans avoir été diagnostiqués déments. Le modèle adapté à l'étude de la démence dans ce contexte est un modèle illness-death dans lequel les sujets initialement non malades peuvent transiter vers l'état décédé directement ou en passant par l'état malade. La vraisemblance du modèle permet en particulier de tenir compte du fait que les sujets décédés sans diagnostic de démence ont pu passer par deux chemins différents entre leur dernière visite et leur décès. Elle ne se factorise pas comme dans le cas où les différents temps de transition sont connus exactement ; tous les paramètres sont donc estimés conjointement. Or, une pratique courante lorsqu'on s'intéresse aux facteurs de risque de démence consiste à considérer uniquement la transition de l'état non malade à l'état malade. Afin de pouvoir appliquer les techniques d'analyse de survie classiques, les sujets décédés sans diagnostic de démence sont artificiellement censurés à droite à leur dernière visite. La première partie de cette thèse permet de montrer que cette approche, contrairement à l'approche illness-death, peut induire des biais dans l'estimation des effets des facteurs de risque. Le fait de modéliser le décès en plus de la démence permet aussi d'exprimer des quantités directement liées au décès comme des espérances de vie ou le risque absolu de démence au cours de la vie entière. Dans la deuxième partie de cette thèse, nous nous efforçons de dégager toutes les quantités pertinentes d'un point de vue épidémiologique qui peuvent être exprimées dans un contexte illness-death. Elles peuvent être estimées en plus des différentes intensités de transition et des effets des facteurs de risque à l'aide du paquet R SmoothHazard, développé au cours de cette thèse. Enfin, la dernière partie de cette thèse consiste à prendre en compte l'hétérogénéité de nos données. Nous introduisons des effets aléatoires sur les trois transitions du modèle illness-death afin de prendre en compte des facteurs de risque partagés par les sujets appartenant à un même groupe
In dementia research, difficulties arise when studying cohort data. Time-to-disease onset is interval censored because the diagnosis is made at intermittent follow-up visits. As a result, disease status at death is unknown for subjects who are disease-free at the last visit before death. The illness-death model allows initially disease-free subjects to first become ill and then die, or die directly. Those two possible trajectories of the subjects who died without dementia diagnosis can be taken into account into the likelihood. Unlike the case where transition times are exactly observed, the latter do not factorizes and parameters of the three transitions have to be estimated jointly. However, when studying risk factors of dementia, a common approach consists in artificially ending follow-up of subjects who died without dementia diagnosis by considering them as right censored at the last time they were seen without disease. The first part of the present work shows that this approach (unlike the illness-death modeling approach) can lead to biases when estimating risk factor effects of dementia. Modeling death in addition to disease also allows to consider quantities which are closely related with risk of death, like lifetime risk of disease or life expectancies. In the second part of this work, we detail all the quantities which are of epidemiological interest in an illness-death model. They can be estimated, in addition to the transition intensities and the effects or risk factors, using the R package SmoothHazard which has been implemented during this thesis. Finally, in the last part of this work, we consider shared frailty regression models for the three transitions of the illness-death model
Styles APA, Harvard, Vancouver, ISO, etc.
31

Parent, Contal Cécile. « AAdéquation et extension du modèle à risques proportionnels dans l'analyse des données de survie. Application au cancer du sein ». Paris 6, 2000. http://www.theses.fr/2000PA066359.

Texte intégral
Résumé :
Le principal modele actuellement utilise dans l'analyse de la relation entre les facteurs de risque du deces et la distribution de survie est le modele semi-parametrique propose par cox en 1972. Ce modele repose sur l'hypothese fondamentale des risques proportionnels selon laquelle deux individus ayant des configurations differentes des covariables ont un rapport de risque constant au cours du temps. En pratique, cette hypothese est loin d'etre toujours verifiee. Des auteurs ont etudie les limites du modele a risques proportionnels et des tests d'adequation graphiques ou formels. Nous proposons un test d'adequation globale au modele a risques proportionnels. Ce test presente l'avantage d'etre simple, rapide, performant et facilement interpretable pour les cliniciens. Dans le cas d'une mauvaise adequation, nous proposons un modele alternatif. Ce modele peut etre mis en place lorsque des connaissances medicales permettent de soupconner que l'effet d'un facteur pronostique continu sur le risque n'est pas log-lineaire, mais depend de l'appartenance a un groupe de risque defini par la position du cofacteur par rapport a un point de rupture. Nous proposons une estimation d'une part du point de rupture potentiel, d'autre part de sa significativite. Les performances du test d'adequation et de la methode d'evaluation du modele alternatif ont ete mesurees sur des donnees simulees. Le probleme de sante publique qui a motive ce travail est la recherche de l'effet de facteurs pronostiques du cancer du sein. Les donnees dont nous disposons ont ete fournies par l'institut curie. La methode de test permet de valider ou d'invalider l'utilisation du modele a risques proportionnels pour certains cofacteurs. Le modele alternatif permet de reajuster
Styles APA, Harvard, Vancouver, ISO, etc.
32

Fromholtz, Raphaël. « Etude des supernovae de type Ia dans leur environnement à l'aide du SuperNova Legacy Survey et des données du COSMic evOlution Survey ». Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX22087/document.

Texte intégral
Résumé :
Dans la décennie précédente les supernovae se sont imposées comme une des sondes les plus puissantes pour reconstruire l'histoire globale de l'Univers. Cependant la standardisation des supernovae de type Ia est toujours une relation empirique. De futures expériences, tel que JDEM, sont prévues pour apporter une meilleure caractérisation de l'équation d'état de l'énergie noire responsable de l'accélération de l'Univers. Ces expériences nécessiterons un contrôle des erreurs systématiques pour assurer aux conclusions futures de n'être pas dominées par des effets non liés à la cosmologie. L'évolution des supernovae avec le redshift ou la présence de sous-classes parmi elles peuvent être à l'origine de ce type de systématiques. Ainsi une meilleure compréhension des propriétés des supernovae et de leur environnement pourrait apporter, une meilleure compréhension de leur standardisation, finalement une meilleure description des supernovae en tant qu'objets astrophysiques. Cette étude apporte également des informations traitant de la simulation de missions spatiales telles que JDEM
Over the past decade supernovae have emerged as one of the most powerful tools for reconstructing the global history of the Universe. However type Ia supernovae are still empirical tools. Future experiments, as JDEM, are planned to better characterize the equation of state of the dark energy leading to the observed acceleration thousands of objects. These experiments will need to carefully control systematic errors to ensure future conclusions are not dominated by effects unrelated to cosmology. The evolution of N Ia with redshift or the presence of subclasses among them can be at the origin of that kind os systematics. So a better understanding of the properties of supernovae in their host galaxies could provide information about the correlation between supernovae and their environment, a better understanding of their standardization, finally a better description of supernovae as astrophisical object. this study can also provide informations for more realistic simultations of a space mission like JDEM
Styles APA, Harvard, Vancouver, ISO, etc.
33

Beaudoin, David. « Estimation de la dépendance et choix de modèles pour des données bivariées sujettes à censure et à troncation ». Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24621/24621.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
34

Latouche, Aurélien. « Modèles de régression en présence de compétition ». Paris 6, 2004. https://tel.archives-ouvertes.fr/tel-00129238.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
35

Tessier, Maxime. « Étude de la performance d’un test d’association génétique pour des données familiales de survie en présence d’un biais de sélection ». Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66872.

Texte intégral
Résumé :
Dans Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), un test d’association entre un ensemble de variants génétiques et des phénotypes censurées en présence de dépendance familiale est proposé. Ce test a été implémenté dans une librairie R nommée gyriq. Dans ce mémoire de maîtrise, nous évaluons par simulations la performance de ce test en présence d’un biais de sélection dû au protocole de collecte de données. En effet, dans plusieurs situations, les données médicales d’une famille sont considérées si et seulement si un membre particulier de cette famille, appelé proband, est diagnostiqué de l’évènement d’intérêt au moment de son examen médical. Nous développons plusieurs stratégies pour générer des données biaisées selon ce protocole. Nous examinons l’erreur de type 1 et la puissance du test d’association avec de telles données, en présence d’un ou plusieurs proband et lorsque les proportions d’échantillonnage conservent seulement les familles dont les probands ont développé l’évènement d’intérêt ou lorsqu’on conserve une proportion de cas où les probands n’ont pas eu l’évènement d’intérêt. Nous concluons que le test demeure valide en présence d’un biais de sélection mais que la puissance est réduite dans cette situation. De plus, le test n’est pas valide lorsque l’on inclut des familles où les probands n’ont pas développé l’évènement d’intérêt.
In Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), an association test between a group of genetic variants and censored phenotypes in presence of intrafamilial correlation is proposed. This test was implemented in a R package named gyriq. In this master’s thesis,we evaluate, with simulations, the performance of this test in presence of a sampling bias which stems from the data collection protocol. Indeed, in many situations, medical data from a family are considered if and only if a particular member of this family, called proband, is diagnosed with the event of interest during his medical exam. We develop multiple strategies to generate biased data according to such data collection protocol. We examine type 1 error and power of the association test in presence of such data, in the cases where there are 1 or more probands and when we sample only families where the probands have the event of interest or when we also sample a small proportion of families where the event has not occured for the probands. We conclude that the association test remains valid in presence of a selection bias but that the test power is diminished. Furthermore, the test is not valid when we include families where the event of interest has not occured for the probands.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Péron, Julien. « Evaluer le bénéfice clinique dans les essais randomisés en utilisant les comparaisons par paire généralisées incluant des données de survie ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10190/document.

Texte intégral
Résumé :
Dans les essais randomisés conduits en oncologie médicale, l'effet des traitements est le plus souvent évalué sur plusieurs critères de jugement, dont un ou plusieurs critères de type temps jusqu'à événement. Une analyse globale de l'effet d'un traitement intègre les résultats observés sur l'ensemble des critères de jugement pertinent. Un des objectifs de notre travail était de réaliser une revue systématique de la littérature évaluant les méthodes de recueil, d'analyse et de rapport des événements indésirables et des critères de jugement rapportés par les patients dans les essais de phase III en oncologie médicale. Cette revue a mis en évidence une grande hétérogénéité des méthodes utilisées. De plus les rapports des essais omettaient souvent certaines informations indispensables pour évaluer la validité des résultats rapportés en toxicité ou sur les critères de jugement rapportés par les patients. Un autre objectif de cette thèse était de développer une extension de la méthode des comparaisons par paire généralisées permettant d'évaluer de façon non biaisée la propension au succès en présence de censure lorsqu'un des critères de jugement est de type temps jusqu'à événement. Cette thèse avait également pour objectif de montrer comment les comparaisons par paire pouvaient être utilisées afin d'évaluer la balance bénéfice-risque de traitements innovants dans les essais randomisés. De la même façon, la propension globale au succès permet d'évaluer le bénéfice thérapeutique global lorsqu'un effet positif est attendu sur plusieurs critères de jugement
In medical oncology randomized trials, treatment effect is usually assessed on several endpoints, including one or more time-to-event endpoints. An overall analysis of the treatment effect may include the outcomes observed on all the relevant endpoints. A systematic review of medical oncology phase III trials was conducted. We extracted the methods used to record, analyze and report adverse events and patient-reported outcomes. Our findings show that some methodological aspects of adverse events or patient-reported outcomes collection and analysis were poorly reported. Even when reported, the methods used were highly heterogeneous. Another objective was to develop an extension of the generalized pairwise comparison procedure for time-to-event variables. The extended procedure provides an unbiased estimation of the chance of a better outcome even in presence of highly censored observations. Then, we show how the chance of an overall better outcome can be used to assess the benefit-risk balance of treatment in randomized trials. When a benefit is expected on more than one endpoint, the chance of an overall better outcome assesses the overall therapeutic benefit. The test of the null hypothesis is more powerful than the test based on one single endpoint
Styles APA, Harvard, Vancouver, ISO, etc.
37

Ternes, Nils. « Identification de biomarqueurs prédictifs de la survie et de l'effet du traitement dans un contexte de données de grande dimension ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS278/document.

Texte intégral
Résumé :
Avec la révolution récente de la génomique et la médecine stratifiée, le développement de signatures moléculaires devient de plus en plus important pour prédire le pronostic (biomarqueurs pronostiques) ou l’effet d’un traitement (biomarqueurs prédictifs) de chaque patient. Cependant, la grande quantité d’information disponible rend la découverte de faux positifs de plus en plus fréquente dans la recherche biomédicale. La présence de données de grande dimension (nombre de biomarqueurs ≫ taille d’échantillon) soulève de nombreux défis statistiques tels que la non-identifiabilité des modèles, l’instabilité des biomarqueurs sélectionnés ou encore la multiplicité des tests.L’objectif de cette thèse a été de proposer et d’évaluer des méthodes statistiques pour l’identification de ces biomarqueurs et l’élaboration d’une prédiction individuelle des probabilités de survie pour des nouveaux patients à partir d’un modèle de régression de Cox. Pour l’identification de biomarqueurs en présence de données de grande dimension, la régression pénalisée lasso est très largement utilisée. Dans le cas de biomarqueurs pronostiques, une extension empirique de cette pénalisation a été proposée permettant d’être plus restrictif sur le choix du paramètre λ dans le but de sélectionner moins de faux positifs. Pour les biomarqueurs prédictifs, l’intérêt s’est porté sur les interactions entre le traitement et les biomarqueurs dans le contexte d’un essai clinique randomisé. Douze approches permettant de les identifier ont été évaluées telles que le lasso (standard, adaptatif, groupé ou encore ridge+lasso), le boosting, la réduction de dimension des effets propres et un modèle implémentant les effets pronostiques par bras. Enfin, à partir d’un modèle de prédiction pénalisé, différentes stratégies ont été évaluées pour obtenir une prédiction individuelle pour un nouveau patient accompagnée d’un intervalle de confiance, tout en évitant un éventuel surapprentissage du modèle. La performance des approches ont été évaluées au travers d’études de simulation proposant des scénarios nuls et alternatifs. Ces méthodes ont également été illustrées sur différents jeux de données, contenant des données d’expression de gènes dans le cancer du sein
With the recent revolution in genomics and in stratified medicine, the development of molecular signatures is becoming more and more important for predicting the prognosis (prognostic biomarkers) and the treatment effect (predictive biomarkers) of each patient. However, the large quantity of information has rendered false positives more and more frequent in biomedical research. The high-dimensional space (i.e. number of biomarkers ≫ sample size) leads to several statistical challenges such as the identifiability of the models, the instability of the selected coefficients or the multiple testing issue.The aim of this thesis was to propose and evaluate statistical methods for the identification of these biomarkers and the individual predicted survival probability for new patients, in the context of the Cox regression model. For variable selection in a high-dimensional setting, the lasso penalty is commonly used. In the prognostic setting, an empirical extension of the lasso penalty has been proposed to be more stringent on the estimation of the tuning parameter λ in order to select less false positives. In the predictive setting, focus has been given to the biomarker-by-treatment interactions in the setting of a randomized clinical trial. Twelve approaches have been proposed for selecting these interactions such as lasso (standard, adaptive, grouped or ridge+lasso), boosting, dimension reduction of the main effects and a model incorporating arm-specific biomarker effects. Finally, several strategies were studied to obtain an individual survival prediction with a corresponding confidence interval for a future patient from a penalized regression model, while limiting the potential overfit.The performance of the approaches was evaluated through simulation studies combining null and alternative scenarios. The methods were also illustrated in several data sets containing gene expression data in breast cancer
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bouatou, Mohamed. « Estimation non linéaire par ondelettes : régression et survie ». Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004921.

Texte intégral
Résumé :
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
Styles APA, Harvard, Vancouver, ISO, etc.
39

Bruandet, Amélie. « Facteurs pronostiques de patients atteints de démence suivis en Centre mémoire de ressources et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique ». Lille 2, 2008. http://tel.archives-ouvertes.fr/tel-00336252/fr/.

Texte intégral
Résumé :
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins. L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences. Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment. Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins. Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins
Styles APA, Harvard, Vancouver, ISO, etc.
40

Fereres, Yohan. « Stratégies d’arbitrage systématique multi-classes d'actifs et utilisation de données hétérogènes ». Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST0075/document.

Texte intégral
Résumé :
Les marchés financiers évoluent plus ou moins rapidement et fortement au gré des différents types d’information diffusés au cours des périodes d’étude. Dans ce contexte, nous cherchons à mesurer l’influence de tous types d’information sur des portefeuilles d’arbitrage systématique « euro neutres » multi-classes d’actifs, issus soit d’une diversification « naïve » (« 1/N ») soit d’une diversification optimale. Dans le cadre de nos recherches sur l’allocation tactique systématique, ces divers flux informationnels sont regroupés sous le terme de données hétérogènes (données de cotation et « autres informations de marché »). Les données de cotation sont des prix de clôture quotidiens d’actifs tandis que les « autres informations de marché » correspondent à trois types d’indicateurs : de conjoncture, de sentiments et de volatilité. Nous mesurons l’impact d’une combinaison de données hétérogènes sur nos portefeuilles d’arbitrage pour une période de tests incluant la crise des subprimes, à l’aide d’analyses de données (ACP) et de techniques probabilistes de quantification vectorielle. L’influence des données hétérogènes sur les portefeuilles d’arbitrage est mesurée notamment au travers d’une hausse de la rentabilité, d’un accroissement du ratio rentabilité/volatilité post crise des subprimes, d’une baisse de la volatilité ou d’une baisse des corrélations entre classes d’actifs. Ces découvertes empiriques permettent d’envisager la prise en compte des « autres informations de marché » comme élément de diversification du risque d’un portefeuille. Nous formalisons des éléments de réponse au défi posé par l’allocation tactique multi-classes d’actifs (Blitz et Vliet, 2008), en intégrant des variables « prédictives » à un processus systématique de market timing qui incorpore de manière quantitative des données hétérogènes
Financial markets evolve more or less rapidly and strongly to all kind of information depending on time period of study. In this context, we intend to measure a broad set of information influence on systematic multi-assets classes “euro neutral” arbitrage portfolios either for “naive” diversification and optimal diversification. Our research focuses on systematic tactical asset allocation and we group these information under the name of heterogeneous data (market data and “other market information”). Market data are “end of day” asset closing prices and “other market information” gather economic cycle, sentiment and volatility indicators. We assess the influence of a heterogeneous data combination on our arbitrage portfolios for a time period including the subprimes crisis period and thanks to data analysis and quantization algorithms. The impact of a heterogeneous data combination on our arbitrage portfolio is materialized by increasing return, increasing return/volatility ratio for the post subprimes crisis period, decreasing volatility and asset class correlations. These empirical findings suggest that “other market information” presence could be an element of arbitrage portfolio risk diversification. Furthermore, we investigate and bring empirical results to Blitz and Vliet (2008) issue on global tactical asset allocation (GTAA) by considering “predictive” variables with a systematic market timing process integrating heterogeneous data thanks to a quantitative data processing
Styles APA, Harvard, Vancouver, ISO, etc.
41

Corbière, Fabien. « Modèles de mélange en analyse de survie en présence de donnée groupées : application à la tremblante du mouton ». Bordeaux 2, 2007. http://www.theses.fr/2007BOR21465.

Texte intégral
Résumé :
Les facteurs de risque individuels et environnementaux associés à la contamination par l'agent de la tremblante classique du mouton et à la durée d'incubation des animaux infectés demeurent mal connus. En l'absence de diagnostic antemortem précoce, la longue durée d'incubation de la maladie et les durées de vie limitées des animaux conduisent à une connaissance partielle du statut sanitaire des animaux. De plus, l'analyse doit tenir compte du fait qu'une partie seulement des animaux se contamine. Nous utilisons des modèles d'analyse des données de survie prenant en compte l'existence d'une fraction non à risque. Nous proposons une approche par vraisemblance pénalisée qui allie les avantages des modèles paramétriques et semi paramétriques existants. Nous nous intéressons ensuite aux modèles paramétriques de survie avec fraction non à risque et effets aléatoires afin de tenir compte du regroupement des animaux dans les élevages. Ces différentes approches sont évaluées à l'aide d'études de simulations. L'application de ces modèles aux données issues du suivi longitudinal d'élevages infectés des Pyrénées Atlantiques (France) confirme le rôle déterminant du génotype au gène PRP sur le risque de contamination et les durées d'incubation. Nos résultats suggèrent de plus que la contamination par l'agent infectieux a principalement lieu en période néonatale. Enfin la forte hétérogénéité des risques de contamination et des durées d'incubation mise en évidence entre troupeaux pourrait être partiellement expliquée par la prise en compte de la structure génétique des élevages et du nombre d'animaux infectés présents
Although they are of major interest in the understanding of the classical scrapie dynamic in infested flocks, the factors influencing the contamination by the infectious agent and incubation period remain poorly known. The absence of antemortem diagnostic tools and the confounding effects of long incubation periods and flock management practices yield a partial knowledge of the infectious status of animals. Moreover, we must take into account that only an unknown fraction of animals become infected, even in heavily affected flocks. To deal with issues, we use a class of particular survival models, which take account for the presence of long term survivors. We propose a penalized likelihood, allowing for the estimation of a smooth risk function. We also develop some parametric models with shared frailties to deal with the presence of grouped data. These different models are evaluated through simulations studies. These statistical approaches are then applied to the analysis of real data collected during the following-up of infected flocks in Pyrénées Atlantiques. The key influence of the PRP genotype on the contamination risk and incubation periods is confirmed. Our results also suggest that, at the individual level, the infection mainly takes place around birth. Finally, the strong heterogeneity in the contamination risk and incubation periods observed between flocks could be partially explained by their PRP genetic structure and the number of incubating animals
Styles APA, Harvard, Vancouver, ISO, etc.
42

Latouche, Aurélien. « Modèles de regression en présence de compétition ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00129238.

Texte intégral
Résumé :
L'analyse de survie concerne la modélisation des délais de réalisation d'un unique événement. Dans de nombreuses situations cependant, les individus sont soumis à plusieurs causes d'événement exclusives, définissant un cadre dit de risques concurrents ou compétitifs.
Ce travail de thèse a porté sur l'étude de modèles de régression dans ce cadre. Deux approches ont été envisagéés, l'une basée sur la fonction de risque instantané cause-spécifique et l'autre sur la
fonction de risque instantané associée à la fonction d'incidence cumulée (ou fonction de risque de sous-répartition). Dans les deux cas, nous avons considéré une formulation à risques proportionnels, c'est à dire un modèle de Cox dans le premier cas, et un modèle de Fine & Gray dans le second cas.
Dans un premier temps, l'implication d'un choix de modélisation a été étudiée dans le cadre de la planification d'un essai clinique ou d'une étude pronostique. Nous avons alors developpé
une formule de calcul du nombre de sujets nécessaire pour le modèle de Fine & Gray.
Puis, les conséquences d'un modèle mal spécifié pour la fonction de risque de sous répartition ont été evaluées, en étudiant l'influence sur l'estimation du paramètre de régression dans le modèle de Fine & Gray quand le vrai modèle est un modèle à risques proportionnels pour la fonction de risque cause-
spécifique. Nous avons ensuite étudié les implications de l'inclusion de covariables dépendantes du
temps dans le modèle de Fine & Gray.
Enfin, nous avons présenté une synthèse didactique sur la
stratégie d'utilisation des approches présentées dans ce travail de thèse.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Tchatchueng, Mbougua Jules Brice. « Problématiques statistiques rencontrées dans l’étude du traitement antirétroviral des adultes infectés par le VIH en Afrique subsaharienne ». Thesis, Montpellier 1, 2012. http://www.theses.fr/2012MON1T006/document.

Texte intégral
Résumé :
Partant de problématiques statistiques rencontrées dans l'étude du traitement antirétroviral des adultes infectés par le virus de l'immunodéficience humaine (VIH) en Afrique subsaharienne, cette thèse cherche, d'une part, à favoriser la vulgarisation d'outils méthodologiques relativement récents auprès d'un public d'utilisateurs moins avertis et, d'autre part, à participer au développement de nouveaux outils. Le premier chapitre présente différentes méthodes de modélisation des données longitudinales dont des méthodes d'analyse de l'évolution d'un critère au cours du temps (les modèles linéaires mixtes généralisés et les modèles d'équations d'estimation généralisées) ou de la survenue d'un évènement au cours du temps (le modèle semi-paramétrique de Cox et ses extensions à la prise en compte des covariables dépendantes du temps et de la censure informative). Le deuxième chapitre s'intéresse aux tests de non-infériorité et propose deux développements de la procédure classique de ces tests pour les cas où la marge de non-infériorité est relative. Enfin, le troisième chapitre aborde la question des données manquantes et propose une extension de la méthode d'imputation multiple par les distributions conditionnelles univariées qui consiste à prendre en compte des effets non-linéaires des covariables dans les modèles d'imputation par des fonctions B-splines. Ces méthodes sont illustrées par des études sur le VIH au Cameroun et au Sénégal
On the basis of statistical challenges encountered in study of antiretroviral treatment of adults infected with human immunodeficiency virus (HIV) in sub-Saharan Africa, this thesis aims to promote the dissemination of relatively recent methodological tools of less aware audience of users on one hand and to participate to development of new tools on the other hand. The first chapter presents various methods for modeling longitudinal data of which analysis methods for changing of a criterion over time (the generalized linear mixed models and models of generalized estimating equations) or the occurrence of an event over time (the semi-parametric Cox model and its extensions to take into account time-dependent covariates and informative censoring). The second chapter focuses on non-inferiority test and provides two developments of the classical procedure of these tests in cases where the non-inferiority margin is relative. The third chapter addresses the question of missing data and proposes an extension of the multiple imputation method based on fully conditional specification, to take into account nonlinear effects of covariates in the imputation models using B-splines functions. These methods are illustrated by studies on HIV in Cameroon and Senegal
Styles APA, Harvard, Vancouver, ISO, etc.
44

Frévent, Camille. « Contribution to spatial statistics for high-dimensional and survival data ». Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILS032.

Texte intégral
Résumé :
Dans ce mémoire de thèse nous nous intéressons aux méthodes d'apprentissage statistique pour données spatiales en grande dimension et données de survie. L'objectif est de développer des méthodes de détection de clusters non supervisées avec des statistiques de scan spatiales, à la fois dans le cadre de l'analyse de données fonctionnelles, mais aussi pour l'analyse de données de survie. Nous considérons tout d'abord des données fonctionnelles univariées ou multivariées mesurées spatialement dans une région géographique. Nous proposons des statistiques de scan paramétriques et non paramétriques dans ce contexte. Ces approches fonctionnelles univariées et multivariées évitent la perte d'information respectivement d'une méthode univariée ou multivariée appliquée sur des observations moyennes au cours de la période d'étude. Nous étudions également les performances de ces approches sur des études de simulation, avant de les appliquer sur des données réelles économiques et environnementales. Nous nous intéressons également à la détection de clusters spatiaux de temps de survie. Bien qu'il existe déjà dans la littérature des approches de statistiques de scan spatiale dans ce cadre, celles-ci ne permettent pas de prendre en compte une éventuelle corrélation entre les temps de survie des individus d'une même unité spatiale. De plus, la nature spatiale des données implique une potentielle dépendance entre les unités spatiales, qui doit être prise en compte. L'originalité de l'approche que nous proposons est le développement d'une nouvelle statistique de scan spatiale basée sur un modèle de Cox à fragilité spatiale, permettant à la fois la prise en compte de la corrélation entre les temps de survie des individus d'une même unité spatiale, et une éventuelle dépendance entre les unités spatiales. Nous avons comparé les performances de cette nouvelle approche avec les méthodes existantes et nous les avons appliquées sur des données réelles de temps de survie des personnes âgées atteintes d'insuffisance rénale chronique terminale dans le nord de la France. Enfin, nous proposons un certain nombre de perspectives à notre travail, à la fois avec des prolongements directs à cette thèse dans le cadre des statistiques de scan spatiales pour données en grande dimension et données de survie, mais également avec des perspectives dans un cadre plus large d'analyse spatiale non supervisée (clustering spatial pour données en grande dimension modélisées par des tenseurs), et d'apprentissage spatial supervisé (régression)
In this thesis, we are interested in statistical spatial learning for high-dimensional and survival data. The objective is to develop unsupervised cluster detection methods by means of spatial scan statistics in the contexts of functional data analysis in one hand and survival data analysis in the other hand. In the first two chapters, we consider univariate and multivariate functional data measured spatially in a geographical area. We propose both parametric and nonparametric spatial scan statistics in this framework. These univariate and multivariate functional approaches avoid the loss of information respectively of a univariate method or a multivariate method applied on the average of the observations during the study period. We study the new methods' performances in simulation studies before applying them on economic and environmental real data. We are also interested in spatial cluster detection of survival data. Although there exist already spatial scan statistics approaches in this framework in the literature, these do not take into account a potential correlation of survival times between individuals of the same spatial unit. Moreover, the spatial nature of the data implies a potential dependence between the spatial units, which should be taken into account. The originality of our proposed method is to introduce a spatial scan statistic based on a Cox model with a spatial frailty, allowing to take into account both the potential correlation between the survival times of the individuals of the same spatial unit and the potential dependence between the spatial units. We compare the performances of this new approach with the existing methods and apply them on real data corresponding to survival times of elderly people with end-stage kidney failure in northern France. Finally, we propose a number of perspectives to our work, both in a direct extension of this thesis in the framework of spatial scan statistics for high-dimensional and survival data, but also perspectives in a broader context of unsupervised spatial analysis (spatial clustering for high-dimensional data (tensors)), and supervised spatial learning (regression)
Styles APA, Harvard, Vancouver, ISO, etc.
45

Soret, Perrine. « Régression pénalisée de type Lasso pour l’analyse de données biologiques de grande dimension : application à la charge virale du VIH censurée par une limite de quantification et aux données compositionnelles du microbiote ». Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0254.

Texte intégral
Résumé :
Dans les études cliniques et grâce aux progrès technologiques, la quantité d’informations recueillies chez un même patient ne cesse de croître conduisant à des situations où le nombre de variables explicatives est plus important que le nombre d’individus. La méthode Lasso s'est montrée appropriée face aux problèmes de sur-ajustement rencontrés en grande dimension.Cette thèse est consacrée à l'application et au développement des régressions pénalisées de type Lasso pour des données cliniques présentant des structures particulières.Premièrement, chez des patients atteints du virus de l'immunodéficience humaine des mutations dans les gènes du virus peuvent être liées au développement de résistances à tel ou tel traitement.La prédiction de la charge virale à partir des mutations (potentiellement grand) permet d'orienter le choix des traitements.En dessous d'un seuil, la charge virale est indétectable, on parle de données censurées à gauche.Nous proposons deux nouvelles approches Lasso basées sur l'algorithme Buckley-James consistant à imputer les valeurs censurées par une espérance conditionnelle. En inversant la réponse, on peut se ramener à un problème de censure à droite, pour laquelle des estimations non-paramétriques de l'espérance conditionnelle ont été proposées en analyse de survie. Enfin, nous proposons une estimation paramétrique qui repose sur une hypothèse Gaussienne.Deuxièmement, nous nous intéressons au rôle du microbiote dans la détérioration de la santé respiratoire. Les données du microbiote sont sous forme d'abondances relatives (proportion de chaque espèce par individu, dites données compositionnelles) et elles présentent une structure phylogénétique.Nous avons dressé un état de l'art des méthodes d'analyses statistiques de données du microbiote. En raison de la nouveauté, peu de recommandations existent sur l'applicabilité et l'efficacité des méthodes proposées. Une étude de simulation nous a permis de comparer la capacité de sélection des méthodes de pénalisation proposées spécifiquement pour ce type de données.Puis nous appliquons ces recherches à l'analyse de l'association entre les bactéries/champignons et le déclin de la fonction pulmonaire chez des patients atteints de la mucoviscidose du projet MucoFong
In clinical studies and thanks to technological progress, the amount of information collected in the same patient continues to grow leading to situations where the number of explanatory variables is greater than the number of individuals. The Lasso method proved to be appropriate to circumvent over-adjustment problems in high-dimensional settings.This thesis is devoted to the application and development of Lasso-penalized regression for clinical data presenting particular structures.First, in patients with the human immunodeficiency virus, mutations in the virus's genetic structure may be related to the development of drug resistance. The prediction of the viral load from (potentially large) mutations allows guiding treatment choice.Below a threshold, the viral load is undetectable, data are left-censored. We propose two new Lasso approaches based on the Buckley-James algorithm, which imputes censored values ​​by a conditional expectation. By reversing the response, we obtain a right-censored problem, for which non-parametric estimates of the conditional expectation have been proposed in survival analysis. Finally, we propose a parametric estimation based on a Gaussian hypothesis.Secondly, we are interested in the role of the microbiota in the deterioration of respiratory health. The microbiota data are presented as relative abundances (proportion of each species per individual, called compositional data) and they have a phylogenetic structure.We have established a state of the art methods of statistical analysis of microbiota data. Due to the novelty, few recommendations exist on the applicability and effectiveness of the proposed methods. A simulation study allowed us to compare the selection capacity of penalization methods proposed specifically for this type of data.Then we apply this research to the analysis of the association between bacteria / fungi and the decline of pulmonary function in patients with cystic fibrosis from the MucoFong project
Styles APA, Harvard, Vancouver, ISO, etc.
46

Jardillier, Rémy. « Evaluation de différentes variantes du modèle de Cox pour le pronostic de patients atteints de cancer à partir de données publiques de séquençage et cliniques ». Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALS008.

Texte intégral
Résumé :
Le cancer constitue la première cause de mortalité prématurée (décès avant 65 ans) en France depuis 2004. Pour un même organe, chaque cancer est unique, et le pronostic personnalisé est donc un aspect important de la prise en charge et du suivi des patients. La baisse des coûts du séquençage des ARN a permis de mesurer à large échelle les profils moléculaires de nombreux échantillons tumoraux. Ainsi, la base de données TCGA fournit les données RNA-seq de tumeurs, des données cliniques (âge, sexe, grade, stade, etc.), et les temps de suivi des patients associés sur plusieurs années (dont la survie du patient, la récidive éventuelle, etc.). De nouvelles découvertes sont donc rendues possibles en terme de biomarqueurs construits à partir de données transcriptomiques, avec des pronostics individualisés. Ces avancées requièrent le développement de méthodes d’analyse de données en grande dimension adaptées à la prise en compte à la fois des données de survie (censurées à droite), des caractéristiques cliniques, et des profils moléculaires des patients. Dans ce contexte, l’objet principal de la thèse consiste à comparer et adapter des méthodologies pour construire des scores de risques pronostiques de la survie ou de la récidive des patients atteints de cancer à partir de données de séquençage et cliniques.Le modèle de Cox (semi-paramétrique) est largement utilisé pour modéliser ces données de survie, et permet de les relier à des variables explicatives. Les données RNA-seq de TCGA contiennent plus de 20 000 gènes pour seulement quelques centaines de patients. Le nombre p de variables excède alors le nombre n de patients, et l'estimation des paramètres est soumis à la « malédiction de la dimension ». Les deux principales stratégies permettant de remédier à cela sont les méthodes de pénalisation et le pré-filtrage des gènes. Ainsi, le premier objectif de cette thèse est de comparer les méthodes de pénalisations classiques du modèle de Cox (i.e. ridge, lasso, elastic net, adaptive elastic net). Pour cela, nous utilisons des données réelles et simulées permettant de contrôler la quantité d’information contenue dans les données transcriptomiques. Ensuite, la deuxième problématique abordée concerne le pré-filtrage univarié des gènes avant l’utilisation d’un modèle de Cox multivarié. Nous proposons une méthodologie permettant d’augmenter la stabilité des gènes sélectionnés, et de choisir les seuils de filtrage en optimisant les prédictions. Enfin, bien que le coût du séquençage (RNA-seq) ait diminué drastiquement au cours de la dernière décennie, il reste trop élevé pour une utilisation routinière en pratique. Dans une dernière partie, nous montrons que la profondeur de séquençage des miARN peut être réduite sans atténuer la qualité des prédictions pour certains cancers de TCGA, mais pas pour d’autres
Cancer has been the leading cause of premature mortality (death before the age of 65) in France since 2004. For the same organ, each cancer is unique, and personalized prognosis is therefore an important aspect of patient management and follow-up. The decrease in sequencing costs over the last decade have made it possible to measure the molecular profiles of many tumors on a large scale. Thus, the TCGA database provides RNA-seq data of tumors, clinical data (age, sex, grade, stage, etc.), and follow-up times of associated patients over several years (including patient survival, possible recurrence, etc.). New discoveries are thus made possible in terms of biomarkers built from transcriptomic data, with individualized prognoses. These advances require the development of large-scale data analysis methods adapted to take into account both survival data (right-censored), clinical characteristics, and molecular profiles of patients. In this context, the main goal of the thesis is to compare and adapt methodologies to construct prognostic risk scores for survival or recurrence of patients with cancer from sequencing and clinical data.The Cox model (semi-parametric) is widely used to model these survival data, and allows linking them to explanatory variables. The RNA-seq data from TCGA contain more than 20,000 genes for only a few hundred patients. The number p of variables then exceeds the number n of patients, and parameters estimation is subject to the “curse of dimensionality”. The two main strategies to overcome this issue are penalty methods and gene pre-filtering. Thus, the first objective of this thesis is to compare the classical penalization methods of Cox's model (i.e. ridge, lasso, elastic net, adaptive elastic net). To this end, we use real and simulated data to control the amount of information contained in the transcriptomic data. Then, the second issue addressed concerns the univariate pre-filtering of genes before using a multivariate Cox model. We propose a methodology to increase the stability of the genes selected, and to choose the filtering thresholds by optimizing the predictions. Finally, although the cost of sequencing (RNA-seq) has decreased drastically over the last decade, it remains too high for routine use in practice. In a final section, we show that the sequencing depth of miRNAs can be reduced without degrading the quality of predictions for some TCGA cancers, but not for others
Styles APA, Harvard, Vancouver, ISO, etc.
47

Marti, soler Helena. « Modélisation des données d'enquêtes cas-cohorte par imputation multiple : Application en épidémiologie cardio-vasculaire ». Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00779739.

Texte intégral
Résumé :
Les estimateurs pondérés généralement utilisés pour analyser les enquêtes cas-cohorte ne sont pas pleinement efficaces. Or, les enquêtes cas-cohorte sont un cas particulier de données incomplètes où le processus d'observation est contrôlé par les organisateurs de l'étude. Ainsi, des méthodes d'analyse pour données manquant au hasard (MA) peuvent être pertinentes, en particulier, l'imputation multiple, qui utilise toute l'information disponible et permet d'approcher l'estimateur du maximum de vraisemblance partielle.Cette méthode est fondée sur la génération de plusieurs jeux plausibles de données complétées prenant en compte les différents niveaux d'incertitude sur les données manquantes. Elle permet d'adapter facilement n'importe quel outil statistique disponible pour les données de cohorte, par exemple, l'estimation de la capacité prédictive d'un modèle ou d'une variable additionnelle qui pose des problèmes spécifiques dans les enquêtes cas-cohorte. Nous avons montré que le modèle d'imputation doit être estimé à partir de tous les sujets complètement observés (cas et non-cas) en incluant l'indicatrice de statut parmi les variables explicatives. Nous avons validé cette approche à l'aide de plusieurs séries de simulations: 1) données complètement simulées, où nous connaissions les vraies valeurs des paramètres, 2) enquêtes cas-cohorte simulées à partir de la cohorte PRIME, où nous ne disposions pas d'une variable de phase-1 (observée sur tous les sujets) fortement prédictive de la variable de phase-2 (incomplètement observée), 3) enquêtes cas-cohorte simulées à partir de la cohorte NWTS, où une variable de phase-1 fortement prédictive de la variable de phase-2 était disponible. Ces simulations ont montré que l'imputation multiple fournissait généralement des estimateurs sans biais des risques relatifs. Pour les variables de phase-1, ils approchaient la précision obtenue par l'analyse de la cohorte complète, ils étaient légèrement plus précis que l'estimateur calibré de Breslow et coll. et surtout que les estimateurs pondérés classiques. Pour les variables de phase-2, l'estimateur de l'imputation multiple était généralement sans biais et d'une précision supérieure à celle des estimateurs pondérés classiques et analogue à celle de l'estimateur calibré. Les résultats des simulations réalisées à partir des données de la cohorte NWTS étaient cependant moins bons pour les effets impliquant la variable de phase-2 : les estimateurs de l'imputation multiple étaient légèrement biaisés et moins précis que les estimateurs pondérés. Cela s'explique par la présence de termes d'interaction impliquant la variable de phase-2 dans le modèle d'analyse, d'où la nécessité d'estimer des modèles d'imputation spécifiques à différentes strates de la cohorte incluant parfois trop peu de cas pour que les conditions asymptotiques soient réunies.Nous recommandons d'utiliser l'imputation multiple pour obtenir des estimations plus précises des risques relatifs, tout en s'assurant qu'elles sont analogues à celles fournies par les analyses pondérées. Nos simulations ont également montré que l'imputation multiple fournissait des estimations de la valeur prédictive d'un modèle (C de Harrell) ou d'une variable additionnelle (différence des indices C, NRI ou IDI) analogues à celles fournies par la cohorte complète
Styles APA, Harvard, Vancouver, ISO, etc.
48

Doux, Cyrille. « Combinaisons de sondes cosmologiques : deux applications avec les données de Planck et SDSS-III/BOSS ». Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC230/document.

Texte intégral
Résumé :
Cette thèse s’intéresse aux combinaisons d’observables cosmologiques provenant des mesures du fond diffus cosmologique et des relevés de galaxies, et est basée sur l’exploitation des données du satellite Planck et du Baryon Oscillation Spectroscopic Survey (BOSS) du Sloan Digital Sky Survey. On explore l’utilisation de corrélations croisées entre les jeux de données afin de mettre en évidence de nouveaux effets et d’améliorer les contraintes statistiques sur les paramètres cosmologiques. Dans un premier temps, on mesure pour la première fois une corrélation entre le lentillage gravitationnel du fond diffus cosmologique et le spectre de puissance des fluctuations de la forêt Lyman-α des quasars. Cet effet, d’origine purement non-linéaire, est interprété comme la réponse du spectre de puissance à des grandes échelles. Il montre comment les fluctuations dans la densité en hydrogène neutre dans le milieu intergalactique sont influencées par des fluctuations à grande échelle dans la densité de matière noire. Le signal mesuré est compatible avec l’approche théorique et des simulations menées par d’autres groupes. Dans un deuxième temps, on développe un formalisme permettant une analyse conjointe de la densité de galaxies et de quasars de BOSS avec le lentillage gravitationnel du fond diffus cosmologique. La prise en compte des corrélations croisées entre ces sondes permet de diminuer les barres d’erreurs de certains paramètres cosmologiques de 20%, ce qui équivaut à augmenter la surface couverte par les relevés de presque 50%. Cette analyse est complétée par la mesure des anisotropies de température du fond diffus cosmologique afin de contraindre tous les paramètres du modèle standard ΛCDM, ainsi que les biais des galaxies. Puis on étend le modèle afin d’explorer les contraintes sur l’équation d’état de l’énergie noire et la somme des masses des neutrinos
This thesis addresses the combinations of cosmological probes from the measurements of the cosmic microwave background (CMB) and galaxy redshift surveys, and exploits data from the Planck satellite and the Baryon Oscillation Spectroscopic Survey (BOSS) of the Sloan Digital Sky Survey. It explores how cross-correlations between different data sets can be used to detect new signals and improve contraints on cosmological parameters. First, we measure, for the first time, the cross-correlation between gravitational lensing of the CMB and the power spectrum of the Lyman-α forest in the spectra of quasars. This effect, which emerges from purely non-linear evolution, is interpreted as the response of the power spectrum to large-scale modes. It shows how fluctuations in the density of neutral hydrogen in the intergalactic medium are affected by large-scale fluctuations in the density of dark matter. The measured signal is compatible with the theoretical approach and simulations run by another group. In a second time, we develop a formalism enabling the joint analysis of the galaxy/quasar density contrast and CMB lensing. Taking cross-correlations between these probes into account reduces error bars on some cosmological parameters by up to 20%, equivalent to an increase in the size of the survey of about 50%. This analysis is completed by CMB temperature anisotropies information in order to constrain all the parameters of the ΛCDM standard model and galaxy biases at once. Finally, it is extended to obtain contraints on the dark energy equation of state as well as the sum of the masses of neutrinos
Styles APA, Harvard, Vancouver, ISO, etc.
49

Younes, Hassan. « Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées / ». Montréal : Université du Québec à Montréal, 2005. http://accesbib.uqam.ca/cgi-bin/bduqam/transit.pl?&noMan=24065971.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Bruandet, Amelie. « Facteurs pronostiques de patients atteints de démence suivis en centre mémoire de ressource et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique ». Phd thesis, Université du Droit et de la Santé - Lille II, 2008. http://tel.archives-ouvertes.fr/tel-00336252.

Texte intégral
Résumé :
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins.
L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences.
Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment.
Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins.
Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie