Academic literature on the topic 'Analyse statistique multiple'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analyse statistique multiple.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analyse statistique multiple"

1

Guetsop Sateu, Fabrice Arnaud. "Décisions financières et performance des entreprises : une analyse exploratoire dans le contexte camerounais." Recherches en Sciences de Gestion N° 157, no. 4 (September 28, 2023): 149–71. http://dx.doi.org/10.3917/resg.157.0149.

Full text
Abstract:
La littérature financière au cours de ces dernières décennies a porté une attention remarquable à l’analyse des décisions financières d’une part, mais également à la performance des entreprises d’autre part. L’objectif de cette étude est d’étudier l’influence des décisions financières sur la performance des entreprises dans le contexte camerounais. A partir d’une analyse statistique suivie d’une régression linéaire multiple menée sur un échantillon de 298 grandes entreprises, les résultats obtenus mettent en évidence l’influence significative des décisions financières sur la performance des entreprises. Ces résultats indiquent que l’effet de levier a une influence positive sur la performance des entreprises, et que le paiement des dividendes a un effet positif sur la performance des entreprises.
APA, Harvard, Vancouver, ISO, and other styles
2

Zingaretti, Laura M., Gilles Renand, Diego P. Morgavi, and Yuliaxis Ramayo-Caldas. "Link-HD: a versatile framework to explore and integrate heterogeneous microbial communities." Bioinformatics 36, no. 7 (November 18, 2019): 2298–99. http://dx.doi.org/10.1093/bioinformatics/btz862.

Full text
Abstract:
Abstract Motivation We present Link-HD, an approach to integrate multiple datasets. Link-HD is a generalization of ‘Structuration des Tableaux A Trois Indices de la Statistique–Analyse Conjointe de Tableaux’, a family of methods designed to integrate information from heterogeneous data. Here, we extend the classical approach to deal with broader datasets (e.g. compositional data), methods for variable selection and taxon-set enrichment analysis. Results The methodology is demonstrated by integrating rumen microbial communities from cows for which methane yield (CH4y) was individually measured. Our approach reproduces the significant link between rumen microbiota structure and CH4 emission. When analyzing the TARA’s ocean data, Link-HD replicates published results, highlighting the relevance of temperature with members of phyla Proteobacteria on the structure and functionality of this ecosystem. Availability and implementation The source code, examples and a complete manual are freely available in GitHub https://github.com/lauzingaretti/LinkHD and in Bioconductor https://bioconductor.org/packages/release/bioc/html/LinkHD.html.
APA, Harvard, Vancouver, ISO, and other styles
3

Richer, Marie-Claude, Marie-Josée Letarte, and Sylvie Normandeau. "Caractéristiques familiales associées aux trois profils du trouble déficitaire de l’attention/hyperactivité chez les enfants âgés de 6 à 9 ans." Enfance en difficulté 1 (September 6, 2012): 145–66. http://dx.doi.org/10.7202/1012126ar.

Full text
Abstract:
Selon l’American Psychiatric Association (APA, 1994), le trouble déficitaire de l’attention/hyperactivité (TDA/H) se divise en trois profils : inattention prédominante (TDA/H-I), hyperactivité-impulsivité prédominante (TDA/H-H) et mixte (TDA/H-M). L’objectif de cette étude est d’identifier les caractéristiques familiales associées aux trois profils du TDA/H en exerçant un contrôle statistique sur les variables de sexe et d’âge des enfants, ainsi que sur la prise de médication et la co-occurrence de troubles extériorisés et intériorisés. Les participants sont 110 familles d’enfants d’âge primaire présentant un TDA/H (TDA/H-I : n = 31, TDA/H-H : n = 11, TDA/H-M : n = 68) et prenant tous une médication appropriée. Les résultats d’une analyse de covariance multiple démontrent que les familles des trois profils se différencient uniquement au niveau du stress parental : les parents d’enfants ayant un TDA/H-I ressentent moins de stress que les parents d’enfants ayant un TDA/H-H ou un TDA/H-M. Par ailleurs, les résultats suggèrent qu’il est important de considérer la présence du trouble oppositionnel et la prise de médication dans l’étude des profils diagnostiques du TDA/H.
APA, Harvard, Vancouver, ISO, and other styles
4

Bec, Frédérique. "Impulsions dominantes et analyse des fluctuations de l’économie française." Articles 70, no. 1 (March 23, 2009): 5–26. http://dx.doi.org/10.7202/602127ar.

Full text
Abstract:
RÉSUMÉL’approche des impulsions dominantes, dans la tradition de Brunner et Meltzer [1978], considère que les fluctuations économiques conjoncturelles sont dues à la composante non anticipée d’un ensemble d’impulsions explicites domestiques et étrangères. Bien que s’inscrivant dans cette approche, notre étude se propose de la reformuler dans un cadre statistique plus performant en utilisant les développements récents de l’économétrie des séries temporelles. L’analyse d’un modèle VAR incluant le PIB en volume, son déflateur, un agrégat monétaire, un indicateur des actions gouvernementales en matière de politique budgétaire, le prix des importations et la demande étrangère plaide en faveur d’une explication en termes d’impulsions multiples des fluctuations de l’économie française à court terme, et souligne l’importance de la prise en compte des chocs étrangers, et plus particulièrement des chocs de demande étrangère.
APA, Harvard, Vancouver, ISO, and other styles
5

Cohen, Atika, Alain Lammé, Catherine Vermandele, and Mohamed Sraieb. "Les enjeux des supports de cours : cas d'un enseignement de statistique en sciences humaines." Statistique et Enseignement 8, no. 1 (2017): 21–44. https://doi.org/10.3406/staso.2017.1351.

Full text
Abstract:
A l'heure des médias et de l'évolution des pratiques de formation, les tâches de l'enseignant du supérieur dépassent largement ses prestations face au public. Gérer l'apprentissage suppose notamment d'assurer la production et l'intégration de multiples supports de cours : les siens et ceux destinés à l'apprentissage. Cette étude prend appui sur le cas d’un cours de statistique en sciences humaines déjà évoqué lors d’une précédente publication dans la présente revue et qui analysait des outils facilitant la publication de supports sous différentes formes. La chaîne éditoriale Scenari, préconisée, a été exploitée dans le cadre de ce cours. Dans ce présent article, les auteurs s’intéressent au contexte où prennent place les supports édités. Il n’est pas centré sur la didactique spécifique aux notions statistiques. C’est par le truchement de plusieurs enquêtes, sur quatre années, que des difficultés d'intégrer ces supports aux démarches d'apprentissage des étudiants ont été mises en lumière. Les expliquer a conduit à situer les supports dans leur contexte : le dispositif du cours et les forces contraignantes qui le déterminent. Un cadre de référence, présenté, a aidé à les analyser et à situer les enjeux des supports. Les enquêtes ont également éclairé les visions des acteurs − la responsable du cours, les étudiants et les encadrants − sur les supports et leurs usages. Elles ont ainsi permis de repérer des dysfonctionnements, de dégager quelques pistes pour mieux intégrer les supports au dispositif et favoriser un apprentissage en profondeur, et enfin de formuler des questionnements par rapport aux pratiques des étudiants et des encadrants.
APA, Harvard, Vancouver, ISO, and other styles
6

Baudot, Pierre-Yves, and Marie-Victoire Bouquet. "Expérience biographique du handicap et participation électorale." Alter 17-1 (2023): 45–68. http://dx.doi.org/10.4000/9ifj.

Full text
Abstract:
Quel est l’effet de l’âge sur la participation politique des personnes handicapées? Les différentes analyses statistiques (analyse des correspondances multiples et régressions) donnent des résultats a priori contradictoires. Pour comprendre l’effet de l’âge et du handicap sur le vote, il est nécessaire de décomposer ces deux dimensions pour identifier trois types de population: celles des personnes âgées devenues handicapées, celle des personnes handicapées vieillissantes et celles des personnes ayant vécu longtemps avec un handicap. Le comportement électoral est utile pour préciser les contours de ces populations. Ceci permet d’affirmer que les personnes âgées handicapées se comportent électoralement comme elles ont été socialisées à le faire. Cette analyse permet aussi de montrer comment le problème du vieillissement n’est pas lié uniquement à l’âge biologique. Elle permet enfin de montrer que la population des personnes considérées administrativement comme handicapées regroupe des catégories de populations très hétérogènes, dont les destins sont clairement différenciés.
APA, Harvard, Vancouver, ISO, and other styles
7

Irwin, Julie R., and Gary H. McClelland. "Heuristiques trompeuses et modèles de régression multiple avec variable modératrice." Recherche et Applications en Marketing (French Edition) 17, no. 2 (June 2002): 87–101. http://dx.doi.org/10.1177/076737010201700205.

Full text
Abstract:
Dans les modèles de régression multiple avec variable modératrice, la relation simple entre la variable dépendante et une variable indépendante peut dépendre du niveau d'une autre variable indépendante. La relation modérée, qui traduit souvent une interaction, est modélisée par l'introduction d'un produit en tant que variable indépendante supplémentaire. Les relations modérées sont importantes pour le marketing ( e.g., les effets de la promotion sur les ventes dépendent-ils du segment de marché?). Les modèles de régression multiple qui ne contiennent pas de produit sont largement utilisés et bien compris. Les auteurs pensent que les chercheurs ont déduit de ce simple type de régression multiple des heuristiques d'analyse de données multiples qui, quand elles sont généralisées de façon inappropriée à la régression multiple avec variable modératrice, peuvent entraîner des interprétations fausses des coefficients du modèle et des analyses statistiques incorrectes. A l'aide d'arguments théoriques et d'ensembles de données, les auteurs décrivent ces heuristiques, montrent dans quelle mesure elles peuvent être facilement mal appliquées et suggèrent de bonnes pratiques pour estimer, tester et interpréter les modèles de régression qui contiennent la relation modératrice.
APA, Harvard, Vancouver, ISO, and other styles
8

Opoola, E., C. Z. Kahuwai, and T. S. Olugbemi. "Evaluation of the performance characteristics, nutrient digestibility and carcass quality of broiler chickens fed Lacto acidophilus®as a replacement for a commercial antibiotic." Nigerian Journal of Animal Production 48, no. 1 (February 28, 2021): 166–74. http://dx.doi.org/10.51791/njap.v48i1.2895.

Full text
Abstract:
An experiment was conducted to evaluate efficacy of Lacto acidophilus on the growth performance, carcass characteristics and nutrient digestibility of broiler chickens. Two hundred and twenty five (225), one day old chicks were purchased from local commercial hatchery and were randomly divided into 5 groups and each group had 3 replicates of 17 chicks in a completely randomized design. Five iso-caloric and iso-nitrogenous (ME 2998kcal/ kg and CP 23.21%) broiler starter and finisher (ME 2990 kcal/ kg and CP 20.33%) experimental diets containing 0, 150, 200 and 250g Lacto acidophilus® for T1-T4 respectively and T5 containing Oxytetracycline were formulated. Broiler starter and finisher diets were fed from 0-3 and 4-7 weeks, respectively. Data obtained were subjected to analysis of variance using Statistical Analysis System and significant differences between treatments means were separated using Duncan Multiple Range Test. There were significant (P<0.05) difference in final weight, weight gain, average daily weight gain (ADWG), total feed intake (TFI), average daily feed intake (ADFI), feed conversion ratio (FCR) and feed cost/kg gain across the treatment groups. It was observed that chickens fed dietary Oxytet (oxytetracycline) had the best results in terms of the final body weight, weight gain and ADWG but similar to those fed 150 and 200g Lacto acidophilus® addition levels. The percentage dry matter (DM), crude protein (CP), crude fibre (CF), ether extracts (EE) and ash retention increased with increase in Lacto acidophilus® inclusion with exception for 250gLacto acidophilus® inclusion (CP, CF, EE). However, it was observed that chickens fed dietary levels of Lacto acidophilus® had the best live weight, dressed weight and dressing percentage compared to the control group. It was concluded that chickens fe Lacto acidophilus® inclusion may as well compete favorably with antibiotics growth promoter fed chickens. Une expérience a été menée pour évaluer l'efficacité de Lacto acidophilus sur la performance de croissance, les caractéristiques de la carcasse et la digestibilité nutritive des poulets de gril. Deux cent vingt-cinq (225), poussins d'un jour ont été achetés à l'écloserie commerciale locale et ont été répartis au hasard en 5 groupes et chaque groupe avait 3 répliques de 17 poussins dans une conception complètement randomisée. Cinq iso- caloriques et iso-azotés (le 'ME' 2998kcal/kg et le 'CP' 23.21%) démarreur et finisseur de poulet de gril (le 'ME' 2990 kcal/kg et le 'CP' 20.33%) des régimes expérimentaux contenant respectivement 0, 150, 200 et 250 g d'acidophilus lacto® pour le T1-T4 et le T5 contenant de l'Oxytetracycline ont été formulés. Les régimes d'entrée et de finisseur de poulet de gril ont été alimentés de 0-3 et 4-7 semaines, respectivement. Les données obtenues ont fait l'objet d'une analyse de la variance à l'aide du système d'analyse statistique et des différences significatives entre les moyens de traitement et ils ont été séparées à l'aide du test à distance multiple Duncan. Il y avait une différence significative (P<0,05) dans le poids final, le gain de poids, le gain de poids quotidien moyen (le 'ADWG'), la consommation totale d'aliments pour animaux (le 'TFI'), l'apport quotidien moyen en aliments pour animaux (ADFI), le ratio de conversion des aliments pour animaux (FCR) et le gain coût/kg des aliments pour animaux dans les groupes de traitement. On a observé que les poulets nourris oxytet alimentaire (oxytetracycline) ont eu les meilleurs résultats en termes de poids corporel final, gain de poids et de 'ADWG', mais similaire à ceux nourris 150 et 200g Lacto acidophilus® niveaux d'addition. Le pourcentage de matière sèche (le 'DM'), de protéines brutes (le 'CP'), de fibres brutes (le 'CF'), d'extraits d'éther (le 'EE') et de rétention de cendres a augmenté avec l'augmentation de lacto acidophilus® l'inclusion à l'exception de 250 glacto acidophilus® inclusion (CP, CF, EE). Cependant, il a été observé que les poulets nourris à des niveaux alimentaires de Lacto acidophilus® avaient le meilleur poids réel, le poids habillé et le pourcentage de vinaigrette par rapport au groupe témoin. Il a été conclu que les poulets feLacto acidophilus® inclusion peut aussi bien rivaliser favorablement avec les antibiotiques promoteur de croissance nourris poulets.
APA, Harvard, Vancouver, ISO, and other styles
9

Olivier, Jean-Marc. "Prédiction et prévision en histoire économique : les succès suisses et scandinaves étaient-ils prévisibles?" Nouvelles perspectives en sciences sociales 6, no. 2 (September 13, 2011): 87–96. http://dx.doi.org/10.7202/1005771ar.

Full text
Abstract:
L’historien de l’économie dispose de multiples outils pour analyser les réussites économiques. Il parvient le plus souvent à les rendre logiques et évidentes, mais en ayant la chance de travailler sur des évènements passés qui ne peuvent pas contredire son raisonnement. Toutefois, l’analyse des plus beaux succès – suisses et scandinaves – nuance les modèles les plus couramment admis : comme l’exploitation de ressources naturelles abondantes, la révolution industrielle libérale à l’anglaise ou le triomphe de la grande usine. En effet, les développements suisse, suédois et norvégien offrent de belles pistes de réflexion car ils reposent davantage sur les PME, sur des politiques volontaristes et sur une maîtrise ancienne des statistiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Asselin, Christian, J. Pages, and René Morlat. "Typologie sensorielle du Cabernet franc et influence du terroir. Utilisation de méthodes statistiques multidimensionnelles." OENO One 26, no. 3 (September 30, 1992): 129. http://dx.doi.org/10.20870/oeno-one.1992.26.3.1192.

Full text
Abstract:
<p style="text-align: justify;">Une typologie sensorielle des vins de Cabernet franc lors du millésime 1988 en Val de Loire, provenant de terroirs définis par la notion de séquence écogéopédologique est effectuée.</p><p style="text-align: justify;">Le jeu de données (19 vins, 31 dégustateurs, 31 descripteurs) est traité selon des méthodes d'analyse multidimensionnelle. La pondération des groupes actifs (olfaction, vision, gustation) est nécessaire pour adapter une Analyse Factorielle Multiple (AFM).</p><p style="text-align: justify;">Celle-ci particulièrement descriptive confirme une influence considérable du milieu naturel sur les critères organoleptiques des vins produits, elle amplifie même la typologie.</p><p style="text-align: justify;">Une relation entre leurs caractéristiques sensorielles et les composantes de la vendange est tentée.</p><p style="text-align: justify;">Il est montré l'importance du pouvoir anthocyanique et phénolique de la baie de Cabernet franc sur la notion de « Puissance et d'Harmonie », facteurs déterminants de la qualité des vins rouges en Val de Loire.</p><p style="text-align: justify;">Une analyse fine de ces constituants nobles permettra au viticulteur de disposer de critères sélectifs qui seront à privilégier et concourront à l'originalité du produit. Il pourra de ce fait engager des techniques oenologiques appropriées afin de renforcer la typicité naturelle des vins de chaque terroir.</p>
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Analyse statistique multiple"

1

Zhang, Jian. "Bayesian multiple hypotheses testing with quadratic criterion." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0016/document.

Full text
Abstract:
Le problème de détection et localisation d’anomalie peut être traité comme le problème du test entre des hypothèses multiples (THM) dans le cadre bayésien. Le test bayésien avec la fonction de perte 0−1 est une solution standard pour ce problème, mais les hypothèses alternatives pourraient avoir une importance tout à fait différente en pratique. La fonction de perte 0−1 ne reflète pas cette réalité tandis que la fonction de perte quadratique est plus appropriée. L’objectif de cette thèse est la conception d’un test bayésien avec la fonction de perte quadratique ainsi que son étude asymptotique. La construction de ce test est effectuée en deux étapes. Dans la première étape, un test bayésien avec la fonction de perte quadratique pour le problème du THM sans l’hypothèse de base est conçu et les bornes inférieures et supérieures des probabilités de classification erronée sont calculées. La deuxième étape construit un test bayésien pour le problème du THM avec l’hypothèse de base. Les bornes inférieures et supérieures des probabilités de fausse alarme, des probabilités de détection manquée, et des probabilités de classification erronée sont calculées. A partir de ces bornes, l’équivalence asymptotique entre le test proposé et le test standard avec la fonction de perte 0−1 est étudiée. Beaucoup d’expériences de simulation et une expérimentation acoustique ont illustré l’efficacité du nouveau test statistique
The anomaly detection and localization problem can be treated as a multiple hypotheses testing (MHT) problem in the Bayesian framework. The Bayesian test with the 0−1 loss function is a standard solution for this problem, but the alternative hypotheses have quite different importance in practice. The 0−1 loss function does not reflect this fact while the quadratic loss function is more appropriate. The objective of the thesis is the design of a Bayesian test with the quadratic loss function and its asymptotic study. The construction of the test is made in two steps. In the first step, a Bayesian test with the quadratic loss function for the MHT problem without the null hypothesis is designed and the lower and upper bounds of the misclassification probabilities are calculated. The second step constructs a Bayesian test for the MHT problem with the null hypothesis. The lower and upper bounds of the false alarm probabilities, the missed detection probabilities as well as the misclassification probabilities are calculated. From these bounds, the asymptotic equivalence between the proposed test and the standard one with the 0-1 loss function is studied. A lot of simulation and an acoustic experiment have illustrated the effectiveness of the new statistical test
APA, Harvard, Vancouver, ISO, and other styles
2

Abdessemed, Lila. "Intégration de la contigui͏̈té en analyse factorielle discriminante et généralisation de l'analyse factorielle multiple aux tableaux de fréquence." Rennes 1, 1994. http://www.theses.fr/1994REN10029.

Full text
Abstract:
Le principal but de cette thèse consiste à introduire la notion de contigui͏̈té en analyse factorielle discriminante. Dans une première forme, nous l'intégrons à posteriori puisqu'elle n'intervient que dans la phase d'affectation; la technique proposée est plus spécialement conçue pour la discrimination multi -classes et a été illustrée par une application en imagerie satellitaire. Nous proposons une première méthode basée exclusivement sur l'information locale, tandis que dans une seconde méthode, nous éliminons les différences non significatives qui peuvent exister entre les sous-classes d'une classe. Par ailleurs, Nous proposons une méthode généralisant l'analyse factorielle multiple aux tableaux de fréquence, permettant ainsi l'étude simultanée de trois types de tableaux différents
APA, Harvard, Vancouver, ISO, and other styles
3

Collignon, Olivier. "Recherche statistique de biomarqueurs du cancer et de l'allergie à l'arachide." Phd thesis, Nancy 1, 2009. http://tel.archives-ouvertes.fr/tel-00430177.

Full text
Abstract:
La première partie de la thèse traite de la recherche de biomarqueurs du cancer. Lors de la transcription, il apparaît que certains nucléotides peuvent être remplacés par un autre nucléotide. On s'intéresse alors à la comparaison des probabilités de survenue de ces infidélités de transcription dans des ARNm cancéreux et dans des ARNm sains. Pour cela, une procédure de tests multiples menée sur les positions des séquences de référence de 17 gènes est réalisée via les EST (Expressed Sequence Tag). On constate alors que ces erreurs de transcription sont majoritairement plus fréquentes dans les tissus cancéreux que dans les tissus sains. Ce phénomène conduirait ainsi à la production de protéines dites aberrantes, dont la mesure permettrait par la suite de détecter les patients atteints de formes précoces de cancer. La deuxième partie de la thèse s'attache à l'étude de l'allergie à l'arachide. Afin de diagnostiquer l'allergie à l'arachide et de mesurer la sévérité des symptômes, un TPO (Test de Provocation Orale) est réalisé en clinique. Le protocole consiste à faire ingérer des doses croissantes d'arachide au patient jusqu'à l'apparition de symptômes objectifs. Le TPO pouvant se révéler dangereux pour le patient, des analyses discriminantes de l'allergie à l'arachide, du score du TPO, du score du premier accident et de la dose réactogène sont menées à partir d'un échantillon de 243 patients, recrutés dans deux centres différents, et sur lesquels sont mesurés 6 dosages immunologiques et 30 tests cutanés. Les facteurs issus d'une Analyse Factorielle Multiple sont également utilisés comme prédicteurs. De plus, un algorithme regroupant simultanément en classes des intervalles comprenant les doses réactogènes et sélectionnant des variables explicatives est proposé, afin de mettre ensuite en compétition des règles de classement. La principale conclusion de cette étude est que les mesures de certains anticorps peuvent apporter de l'information sur l'allergie à l'arachide et sa sévérité, en particulier ceux dirigés contre rAra-h1, rAra-h2 et rAra-h3.
APA, Harvard, Vancouver, ISO, and other styles
4

Dupuy, Mariette. "Analyse des caractéristiques électriques pour la détection des sujets à risque de mort subite cardiaque." Electronic Thesis or Diss., Bordeaux, 2025. http://www.theses.fr/2025BORD0002.

Full text
Abstract:
La mort subite cardiaque (MSC) représente 30% de la mortalité adulte des pays industrialisés. La majeure partie des MSC est la conséquence d’une arythmie appelée fibrillation ventriculaire, elle-même étant la conséquence d’un muscle cardiaque présentant des anomalies structurelles. Malgré l’existence de thérapies efficaces, la majorité des individus présentant un risque de MSC ne sont pas identifiés de manière préventive à cause de l’absence d’examen disponible. Le développement de marqueurs spécifiques sur des enregistrements électrocardiographiques permettrait une identification et une stratification du risque de MSC. Au cours des six dernières années, l’IHU Liryc a enregistré les signaux électriques à la surface du corps chez plus de 800 individus (sains et pathologiques) à l’aide d’un dispositif haute résolution de 128 électrodes. Des caractéristiques ont été calculées sur ces signaux (durée du signal par électrode, fréquence, fractionnement de l’amplitude, ...). Au total, plus de 1500 caractéristiques électriques sont disponibles par patient. Lors du processus d’acquisition par le système de 128 électrodes en milieu hospitalier, le bruit, ou le mauvais positionnement de certaines électrodes ne permettent pas de calculer les caractéristiques prévues, conduisant ainsi à une base de données incomplète. Cette thèse s’organise autour de deux axes. Nous avons dans un premier temps développé une méthode d’imputation de données manquantes pour répondre au problème des électrodes défaillantes. Puis nous avons développé un score de risque pour la stratification du risque de mort subite. La famille de méthodes la plus souvent utilisée pour gérer les données manquantes est l’imputation : allant d’une simple complétion par la moyenne, à des méthodes par agrégation locale, régressions locales, transport optimal ou encore modification de modèles génératifs. Récemment les Autoencoders (AE) et plus précisément les Denoising AutoEncoder (DAE) ont montré de bonnes performances pour cette tâche. Les AE sont des réseaux de neurones utilisés pour apprendre une représentation des données dans un espace de dimension réduit. Les DAE sont des AE qui ont été proposés pour reconstruire, à partir de données bruitées, les données originales. Nous proposons dans ce travail une nouvelle méthodologie basée sur les DAE appelée modified Denoising AutoEncoder (mDAE) pour permettre l’imputation de données manquantes. Le deuxième axe de recherche de la thèse a consisté à la mise en place d’un score du risque de mort subite cardiaque. Les DAE ont la capacité de modéliser et de reconstruire des données complexes. Nous avons ainsi entrainé des DAE à modéliser la distribution des individus sains sur un sous-groupe sélectionné de caractéristiques électriques. Puis nous avons utilisé ces DAE pour discriminer des patients pathologiques des individus sains en analysant la qualité d’imputation du DAE sur des caractéristiques partiellement masquées. Dans le but de mettre en place un score de risque de la mort subite, nous avons également comparé différentes méthodes de classification
Sudden cardiac death (SCD) accounts for 30% of adult mortality in industrialized countries. The majority of SCD cases are the result of an arrhythmia called ventricular fibrillation, which itself results from structural abnormalities in the heart muscle. Despite the existence of effective therapies, most individuals at risk for SCD are not identified preventively due to the lack of available testing. Developing specific markers on electrocardiographic recordings would enable the identification and stratification of SCD risk. Over the past six years, the Liryc Institute has recorded surface electrical signals from over 800 individuals (both healthy and pathological) using a high-resolution 128-electrode device. Features were calculated from these signals (signal duration per electrode, frequency, amplitude fractionation, etc.). In total, more than 1,500 electrical features are available per patient. During the acquisition process using the 128-electrode system in a hospital setting, noise or poor positioning of specific electrodes sometimes prevents calculating the intended features, leading to an incomplete database. This thesis is organized around two main axes. First, we developed a method for imputing missing data to address the problem of faulty electrodes. Then, we developed a risk score for the sudden death risk stratification. The most commonly used family of methods for handling missing data is imputation, ranging from simple completion by averaging to local aggregation methods, local regressions, optimal transport, or even modifications of generative models. Recently, Autoencoders (AE) and, more specifically, Denoising AutoEncoders (DAE) have performed well in this task. AEs are neural networks used to learn a representation of data in a reduced-dimensional space. DAEs are AEs that have been proposed to reconstruct original data from noisy data. In this work, we propose a new methodology based on DAEs called the modified Denoising AutoEncoder (mDAE) to allow for the imputation of missing data. The second research axis of the thesis focused on developing a risk score for sudden cardiac death. DAEs can model and reconstruct complex data. We trained DAEs to model the distribution of healthy individuals based on a selected subset of electrical features. Then, we used these DAEs to discriminate pathological patients from healthy individuals by analyzing the imputation quality of the DAE on partially masked features. We also compared different classification methods to establish a risk score for sudden death
APA, Harvard, Vancouver, ISO, and other styles
5

Girka, Fabien. "Development of new statistical/ML methods for identifying multimodal factors related to the evolution of Multiple Sclerosis." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG075.

Full text
Abstract:
L'étude d'un phénomène à travers plusieurs modalités peut permettre de mieux en comprendre les mécanismes sous-jacents par rapport à l'étude indépendante des différentes modalités. Dans l'optique d'une telle étude, les données sont souvent acquises par différentes sources, donnant lieu à des jeux de données multimodaux/multi-sources/multiblocs. Un cadre statistique explicitement adapté pour l'analyse jointe de données multi-sources est l'Analyse Canonique des Corrélations Généralisée Régularisée (RGCCA). RGCCA extrait des vecteurs et composantes canoniques qui résument les différentes modalités et leurs interactions.Les contributions de cette thèse sont de quatre ordres. (i) Améliorer et enrichir le package R pour RGCCA afin de démocratiser son usage. (ii) Etendre le cadre de RGCCA pour mieux prendre en compte les données tensorielles en imposant une décomposition tensorielle de rang faible aux vecteurs canoniques extraits par la méthode. (iii) Proposer et étudier des approches simultanées de RGCCA pour obtenir toutes les composantes canoniques d'un seul coup. Les méthodes proposées ouvrent la voie à de nouveaux développements de RGCCA. (iv) Utiliser les outils et l'expertise développés pour analyser des données sur la sclérose en plaques et la leucodystrophie. L'accent est mis sur l'identification de biomarqueurs permettant de différencier les patients des témoins sains ou de trouver des différences entre groupes de patients
Studying a given phenomenon under multiple views can reveal a more significant part of the mechanisms at stake rather than considering each view separately. In order to design a study under such a paradigm, measurements are usually acquired through different modalities resulting in multimodal/multiblock/multi-source data. One statistical framework suited explicitly for the joint analysis of such multi-source data is Regularized Generalized Canonical Correlation Analysis (RGCCA). RGCCA extracts canonical vectors and components that summarize the different views and their interactions. The contributions of this thesis are fourfold. (i) Improve and enrich the RGCCA R package to democratize its use. (ii) Extend the RGCCA framework to better handle tensor data by imposing a low-rank tensor factorization to the extracted canonical vectors. (iii) Propose and investigate simultaneous versions of RGCCA to get all canonical components at once. The proposed methods pave the way for new extensions of RGCCA. (iv) Use the developed tools and expertise to analyze multiple sclerosis and leukodystrophy data. A focus is made on identifying biomarkers differentiating between patients and healthy controls or between groups of patients
APA, Harvard, Vancouver, ISO, and other styles
6

Kumar, Vandhna. "Descente d'échelle statistique du niveau de la mer pour les îles du Pacifique Sud-Ouest : une approche de régression linéaire multiple." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30234.

Full text
Abstract:
L'élévation du niveau de la mer est une préoccupation croissante dans les îles du Pacifique. Au cours de l'ère altimétrique (depuis 1993), les taux d'élévation du niveau de la mer sur le Pacific tropical ouest ont été parmi les plus élevés du monde, atteignant jusqu'à 3-4 fois la moyenne globale. Alors que de plus en plus de communautés soumises aux risques associés à cette hausse du niveau de la mer se déplacent vers des terres plus élevées pour échapper à la montée des eaux, il est impératif de disposer de prédictions du niveau de la mer à l'échelle locale pour faciliter le processus d'adaptation et de planification. Ce processus n'est pas simple car le niveau de la mer varie d'une région à l'autre, notamment en fonction des redistributions de chaleur, sel et masses opérées aux échelles régionales par la circulation océanique, et des modes climatiques dominants (par exemple, ENSO, PDO/IPO). Même à l'échelle locale, d'importants changements du niveau de la mer relatif peuvent résulter de mouvements verticaux naturels ou anthropiques du sol terrestre. Motivée par ces préoccupations, cette thèse se concentre sur l'utilisation d'une technique de descente d'échelle statistique basée sur des régressions linéaires multiples (MLR) pour modéliser les variations interannuelles-à-interdécennales du niveau de la mer pour trois sites côtiers localisés sur des îles du Pacifique Sud-Ouest - Suva et Lautoka à Fidji, et Nouméa en Nouvelle-Calédonie. Le modèle MLR est basé sur la connaissance que les variations du niveau de la mer à ces échelles de temps dans le Pacifique tropical sont principalement de nature thermostérique (c.-à-d. provenant des changements de densité de l'eau de mer induits par des changements de température de l'océan) et que ces variations thermostériques sont principalement générées par les variations de forçage de vent et les ondes de Rossby se propageant vers l'ouest qui en résultent. Les expériences de MLR sont menées sur la période d'étude 1988-2014, l'accent étant mis sur la variabilité interannuelle à décennale et les tendances du niveau de la mer. Le niveau de la mer pour les trois sites côtiers insulaires est d'abord exprimé sous forme de somme des variations stériques et de masse. Dans un second temps, les modèles MLR développés se basent sur une approche plus orientée processus, en utilisant le rotationnel de tension de vent comme approximation de la composante thermostérique.[...]
Sea level rise is a growing concern in the islands of the western Pacific. Over the altimetry era (1993-present), sea level rise rates in the western tropical Pacific were amongst the highest recorded across the world ocean, reaching up to 3-4 times the global mean. As more and more affected communities relocate to higher grounds to escape the rising seas, there is a compelling need for information on local scales to ease the adaptation and planning process. This is not a straightforward process as sea level varies regionally, driven by wind and ocean circulation patterns, and the prevailing climate modes (e.g. ENSO, PDO/IPO). On local scales, substantial sea level changes can result from natural or anthropogenic induced vertical ground motion. Motivated by such concerns, this thesis focuses on developing a statistical downscaling technique, namely a multiple linear regression (MLR) model, to simulate island sea levels at selected sites in the southwest Pacific - Suva and Lautoka in Fiji, and Nouméa in New Caledonia. The model is based on the knowledge that sea level variations in the tropical Pacific are mainly thermosteric in nature (temperature-related changes in ocean water density) and that these thermosteric variations are dominated by wind-forced, westward propagating Rossby waves. The MLR experiments are conducted over the 1988-2014 study period, with a focus on interannual-to-decadal sea level variability and trend. Island sea levels are first expressed a sum of steric and mass changes. Then, a more dynamical approach using wind stress curl as a proxy for the thermosteric component is undertaken to construct the MLR model. In the latter case, island sea levels are perceived as a composite of global, regional and local components, where the second is dominant. The MLR model takes wind stress curl as the dominant regional regressor (via a Rossby wave model), and the local halosteric component (salinity-related changes in ocean water density), local wind stress, and local sea surface temperature as minor regressors. A stepwise regression function is used to isolate statistically significant regressors before calibrating the MLR model. The modeled sea level shows high agreement with observations, capturing 80% of the variance on average. Stationarity tests on the MLR model indicate that it can be applied skillfully to projections of future sea level. The statistical downscaling approach overall provides insights on key drivers of sea level variability at the selected sites, showing that while local dynamics and the global signal modulate sea level to a given extent, most of the variance is driven by regional factors. [...]
APA, Harvard, Vancouver, ISO, and other styles
7

Jmel, Saïd. "Applications des modèles graphiques au choix de variables et à l'analyse des interactions dans une table de contingence multiple." Toulouse 3, 1992. http://www.theses.fr/1992TOU30091.

Full text
Abstract:
On presente quelques aspects de l'apport des modeles graphiques en analyse des donnees multidimensionnelles. Deux sujets ont ete abordes. Le premier concerne la selection des variables. On propose une nouvelle methode basee sur un type particulier de modeles graphiques. On donne deux applications de cette methode: la premiere en analyse en composantes principales et la seconde en analyse loglineaire. Le second sujet traite de la modelisation des interactions dans une table de contingence multiple. On montre comment l'analyse factorielle des correspondances et les modeles d'association ligne colonne de goodman peuvent sous certaines contraintes prendre en consideration la structure du graphe d'interactions ou le graphe d'independance conditionnelle associe a cette table. En complement, on suggere quelques techniques d'analyse des donnees susceptibles d'aider a la construction de tels graphes
APA, Harvard, Vancouver, ISO, and other styles
8

Pluntz, Matthieu. "Sélection de variables en grande dimension par le Lasso et tests statistiques - application à la pharmacovigilance." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASR002.

Full text
Abstract:
La sélection de variables dans une régression de grande dimension est un problème classique dans l'exploitation de données de santé, où l'on cherche à identifier un nombre limité de facteurs associés à un évènement parmi un grand nombre de variables candidates : facteurs génétiques, expositions environnementales ou médicamenteuses.La régression Lasso (Tibshirani, 1996) fournit une suite de modèles parcimonieux où les variables apparaissent les unes après les autres suivant la valeur du paramètre de régularisation. Elle doit s'accompagner d'une procédure du choix de ce paramètre et donc du modèle associé. Nous proposons ici des procédures de sélection d'un des modèles du chemin du Lasso qui font partie, ou s'inspirent, du paradigme des tests statistiques. De la sorte, nous cherchons à contrôler le risque de sélection d'au moins un faux positif (Family-Wise Error Rate, FWER), au contraire de la plupart des méthodes existantes de post-traitement du Lasso qui acceptent plus facilement des faux positifs.Notre première proposition est une généralisation du critère d'information d'Akaike (AIC) que nous appelons AIC étendu (EAIC). La log-vraisemblance du modèle considéré y est pénalisée par son nombre de paramètres affecté d'un poids qui est fonction du nombre total de variables candidates et du niveau visé de FWER, mais pas du nombre d'observations. Nous obtenons cette fonction en rapprochant la comparaison de critères d'information de sous-modèles emboîtés d'une régression en grande dimension, de tests multiples du rapport de vraisemblance sur lesquels nous démontrons un résultat asymptotique.Notre deuxième proposition est un test de la significativité d'une variable apparaissant sur le chemin du Lasso. Son hypothèse nulle dépend d'un ensemble A de variables déjà sélectionnées et énonce qu'il contient toutes les variables actives. Nous cherchons à prendre comme statistique de test la valeur du paramètre de régularisation à partir de laquelle une première variable en dehors de A est sélectionnée par le Lasso. Ce choix se heurte au fait que l'hypothèse nulle n'est pas assez spécifiée pour définir la loi de cette statistique et donc sa p-value. Nous résolvons cela en lui substituant sa p-value conditionnelle, définie conditionnellement aux coefficients estimés du modèle non pénalisé restreint à A. Nous estimons celle-ci par un algorithme que nous appelons simulation-calibration, où des vecteurs réponses sont simulés puis calibrés sur les coefficients estimés du vecteur réponse observé. Nous adaptons de façon heuristique la calibration au cas des modèles linéaires généralisés (binaire et de Poisson) dans lesquels elle est une procédure itérative et stochastique. Nous prouvons que l'utilisation du test permet de contrôler le risque de sélection d'un faux positif dans les modèles linéaires, à la fois lorsque l'hypothèse nulle est vérifiée mais aussi, sous une condition de corrélation, lorsque A ne contient pas toutes les variables actives.Nous mesurons les performances des deux procédures par des études de simulations extensives, portant à la fois sur la sélection éventuelle d'une variable sous l'hypothèse nulle (ou son équivalent pour l'EAIC) et sur la procédure globale de sélection d'un modèle. Nous observons que nos propositions se comparent de façon satisfaisante à leurs équivalents les plus proches déjà existants, BIC et ses versions étendues pour l'EAIC et le test de covariance de Lockhart et al. (2014) pour le test par simulation-calibration. Nous illustrons également les deux procédures dans la détection d'expositions médicamenteuses associées aux pathologies hépatiques (drug-induced liver injuries, DILI) dans la base nationale de pharmacovigilance (BNPV) en mesurant leurs performances grâce à l'ensemble de référence DILIrank d'associations connues
Variable selection in high-dimensional regressions is a classic problem in health data analysis. It aims to identify a limited number of factors associated with a given health event among a large number of candidate variables such as genetic factors or environmental or drug exposures.The Lasso regression (Tibshirani, 1996) provides a series of sparse models where variables appear one after another depending on the regularization parameter's value. It requires a procedure for choosing this parameter and thus the associated model. In this thesis, we propose procedures for selecting one of the models of the Lasso path, which belong to or are inspired by the statistical testing paradigm. Thus, we aim to control the risk of selecting at least one false positive (Family-Wise Error Rate, FWER) unlike most existing post-processing methods of the Lasso, which accept false positives more easily.Our first proposal is a generalization of the Akaike Information Criterion (AIC) which we call the Extended AIC (EAIC). We penalize the log-likelihood of the model under consideration by its number of parameters weighted by a function of the total number of candidate variables and the targeted level of FWER but not the number of observations. We obtain this function by observing the relationship between comparing the information criteria of nested sub-models of a high-dimensional regression, and performing multiple likelihood ratio test, about which we prove an asymptotic property.Our second proposal is a test of the significance of a variable appearing on the Lasso path. Its null hypothesis depends on a set A of already selected variables and states that it contains all the active variables. As the test statistic, we aim to use the regularization parameter value from which a first variable outside A is selected by Lasso. This choice faces the fact that the null hypothesis is not specific enough to define the distribution of this statistic and thus its p-value. We solve this by replacing the statistic with its conditional p-value, which we define conditional on the non-penalized estimated coefficients of the model restricted to A. We estimate the conditional p-value with an algorithm that we call simulation-calibration, where we simulate outcome vectors and then calibrate them on the observed outcome‘s estimated coefficients. We adapt the calibration heuristically to the case of generalized linear models (binary and Poisson) in which it turns into an iterative and stochastic procedure. We prove that using our test controls the risk of selecting a false positive in linear models, both when the null hypothesis is verified and, under a correlation condition, when the set A does not contain all active variables.We evaluate the performance of both procedures through extensive simulation studies, which cover both the potential selection of a variable under the null hypothesis (or its equivalent for EAIC) and on the overall model selection procedure. We observe that our proposals compare well to their closest existing counterparts, the BIC and its extended versions for the EAIC, and Lockhart et al.'s (2014) covariance test for the simulation-calibration test. We also illustrate both procedures in the detection of exposures associated with drug-induced liver injuries (DILI) in the French national pharmacovigilance database (BNPV) by measuring their performance using the DILIrank reference set of known associations
APA, Harvard, Vancouver, ISO, and other styles
9

Tran, Xuan Quang. "Les modèles de régression dynamique et leurs applications en analyse de survie et fiabilité." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0147/document.

Full text
Abstract:
Cette thèse a été conçu pour explorer les modèles dynamiques de régression, d’évaluer les inférences statistiques pour l’analyse des données de survie et de fiabilité. Ces modèles de régression dynamiques que nous avons considérés, y compris le modèle des hasards proportionnels paramétriques et celui de la vie accélérée avec les variables qui peut-être dépendent du temps. Nous avons discuté des problèmes suivants dans cette thèse.Nous avons présenté tout d’abord une statistique de test du chi-deux généraliséeY2nquiest adaptative pour les données de survie et fiabilité en présence de trois cas, complètes,censurées à droite et censurées à droite avec les covariables. Nous avons présenté en détailla forme pratique deY2nstatistique en analyse des données de survie. Ensuite, nous avons considéré deux modèles paramétriques très flexibles, d’évaluer les significations statistiques pour ces modèles proposées en utilisantY2nstatistique. Ces modèles incluent du modèle de vie accélérés (AFT) et celui de hasards proportionnels (PH) basés sur la distribution de Hypertabastic. Ces deux modèles sont proposés pour étudier la distribution de l’analyse de la duré de survie en comparaison avec d’autre modèles paramétriques. Nous avons validé ces modèles paramétriques en utilisantY2n. Les études de simulation ont été conçus.Dans le dernier chapitre, nous avons proposé les applications de ces modèles paramétriques à trois données de bio-médicale. Le premier a été fait les données étendues des temps de rémission des patients de leucémie aiguë qui ont été proposées par Freireich et al. sur la comparaison de deux groupes de traitement avec des informations supplémentaires sur les log du blanc du nombre de globules. Elle a montré que le modèle Hypertabastic AFT est un modèle précis pour ces données. Le second a été fait sur l’étude de tumeur cérébrale avec les patients de gliome malin, ont été proposées par Sauerbrei & Schumacher. Elle a montré que le meilleur modèle est Hypertabastic PH à l’ajout de cinq variables de signification. La troisième demande a été faite sur les données de Semenova & Bitukov, à concernant les patients de myélome multiple. Nous n’avons pas proposé un modèle exactement pour ces données. En raison de cela était les intersections de temps de survie.Par conséquent, nous vous conseillons d’utiliser un autre modèle dynamique que le modèle de la Simple Cross-Effect à installer ces données
This thesis was designed to explore the dynamic regression models, assessing the sta-tistical inference for the survival and reliability data analysis. These dynamic regressionmodels that we have been considered including the parametric proportional hazards andaccelerated failure time models contain the possibly time-dependent covariates. We dis-cussed the following problems in this thesis.At first, we presented a generalized chi-squared test statisticsY2nthat is a convenient tofit the survival and reliability data analysis in presence of three cases: complete, censoredand censored with covariates. We described in detail the theory and the mechanism to usedofY2ntest statistic in the survival and reliability data analysis. Next, we considered theflexible parametric models, evaluating the statistical significance of them by usingY2nandlog-likelihood test statistics. These parametric models include the accelerated failure time(AFT) and a proportional hazards (PH) models based on the Hypertabastic distribution.These two models are proposed to investigate the distribution of the survival and reliabilitydata in comparison with some other parametric models. The simulation studies were de-signed, to demonstrate the asymptotically normally distributed of the maximum likelihood estimators of Hypertabastic’s parameter, to validate of the asymptotically property of Y2n test statistic for Hypertabastic distribution when the right censoring probability equal 0% and 20%.n the last chapter, we applied those two parametric models above to three scenes ofthe real-life data. The first one was done the data set given by Freireich et al. on thecomparison of two treatment groups with additional information about log white blood cellcount, to test the ability of a therapy to prolong the remission times of the acute leukemiapatients. It showed that Hypertabastic AFT model is an accurate model for this dataset.The second one was done on the brain tumour study with malignant glioma patients, givenby Sauerbrei & Schumacher. It showed that the best model is Hypertabastic PH onadding five significance covariates. The third application was done on the data set given by Semenova & Bitukov on the survival times of the multiple myeloma patients. We did not propose an exactly model for this dataset. Because of that was an existing oneintersection of survival times. We, therefore, suggest fitting other dynamic model as SimpleCross-Effect model for this dataset
APA, Harvard, Vancouver, ISO, and other styles
10

Héraud, Bousquet Vanina. "Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T017/document.

Full text
Abstract:
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses
The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Analyse statistique multiple"

1

J, Greenacre Michael, and Blasius Jörg 1957-, eds. Multiple correspondence analysis and related methods. Boca Raton: Chapman & Hall/CRC, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Paul, Reise Steven, and Duan Naihua 1949-, eds. Multilevel modeling: Methodological advances, issues, and applications. Mahwah, N.J: Lawrence Erlbaum Associates, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bechhofer, Robert E. Design and analysis of experiments for statistical selection, screening, and multiple comparisons. New York: Wiley, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Jaccard, James. Interaction effects in multiple regression. 2nd ed. Thousand Oaks, Calif: Sage Publications, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Robert, Turrisi, and Wan Choi K, eds. Interaction effects in multiple regression. Newbury Park: Sage Publications, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

K, Wan Choi, ed. LISREL approaches to interaction effects in multiple regression. Thousand Oaks, Calif: Sage Publications, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hsu, Jason. Multiple Comparisons: Theory and Methods. Taylor & Francis Group, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Hsu, Jason. Multiple Comparisons: Theory and Methods. Taylor & Francis Group, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Multiple Comparisons: Theory and Methods. Chapman & Hall/CRC, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Multiple Comparisons: Theory and Methods. Taylor & Francis Group, 2023.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Analyse statistique multiple"

1

Battams, Nathan. Coup d’œil sur la diversité familiale au Canada (février 2018). L’Institut Vanier de la famille, 2018. http://dx.doi.org/10.61959/zgcs6217f.

Full text
Abstract:
Depuis plus de cinquante ans, l’Institut Vanier de la famille s’emploie à observer, à étudier et à analyser les tendances touchant les familles et la vie de famille au Canada. Dès la première heure, le constat a toujours été sans équivoque : la réalité des familles est à visages multiples, puisque leur diversité n’a d’égal que celle des gens qui les composent. Et ce fut toujours le cas, peu importe que l’on s’intéresse aux familles du point de vue de leur structure, de leur identité familiale, de leur mode de cohabitation, de leur style de vie et de leurs réalités familiales, ou encore que l’on insiste sur les caractéristiques individuelles des membres de la famille, comme leurs antécédents ethnoculturels, leur statut d’immigrant, leur orientation sexuelle ou leurs aptitudes particulières. En misant sur notre récente fiche infographique intitulée La diversité familiale au Canada (mise à jour au Recensement de 2016), notre nouvelle parution dans la série Coup d’œil sur les statistiques propose un portrait élargi et plus détaillé des familles modernes au Canada, et de certaines tendances qui contribuent à définir notre paysage familial dynamique et en constante évolution. À partir de notre analyse des données et des tendances actuelles, cet aperçu montre que la diversité demeure l’une des caractéristiques centrales de la vie familiale, qu’il s’agisse des familles d’hier et d’aujourd’hui ou de celles des générations à venir. Et cette réalité alimente le dynamisme de la société canadienne en pleine évolution.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography