Dissertations / Theses on the topic 'Statistique de test'

To see the other types of publications on this topic, follow the link: Statistique de test.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Statistique de test.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gouraud, Sandrine-Dominique. "Utilisation des Structures Combinatoires pour le Test Statistique." Phd thesis, Université Paris Sud - Paris XI, 2004. http://tel.archives-ouvertes.fr/tel-00011191.

Full text
Abstract:
Cette thèse propose une nouvelle approche pour le test statistique de
logiciel à partir d'une description graphique des comportements du
système à tester (graphe de contrôle, statecharts). Son originalité
repose sur la combinaison de résultats et d'outils de combinatoire
(génération aléatoire de structures combinatoires) et d'un solveur de
contraintes, pour obtenir une méthode de test complètement automatisée.
Contrairement aux approches classiques qui tirent des entrées, la
génération aléatoire uniforme est utilisée pour tirer des chemins parmi
un ensemble de chemins d'exécution ou de traces du système à tester.
Puis, une étape de résolution de contraintes est utilisée pour
déterminer les entrées qui permettront d'exécuter ces chemins.
De plus, nous montrons comment les techniques de programmation
linéaire peuvent améliorer la qualité d'un ensemble de tests.

Une première application a été effectuée pour le test statistique
structurel défini par Thévenod-Fosse et Waeselynck (LAAS) et un
prototype a été développé.
Des expériences (plus de 10000 réalisées sur quatre fonctions issues
d'un logiciel industriel) ont été effectuées pour évaluer notre approche
et sa stabilité.

Ces expériences montrent que notre approche est comparable à celle
du LAAS, est stable et a l'avantage d'être complètement automatisée.
Ces premières expériences nous permettent également d'envisager un
passage à l'échelle de notre approche. Plus généralement, ces travaux
pourraient servir de base pour une nouvelle classe d'outils dans le
domaine du test de logiciel, combinant génération aléatoire de
structures combinatoires, techniques de programmation linéaire et
résolution de contraintes.
APA, Harvard, Vancouver, ISO, and other styles
2

Bonnardel, Philippe. "Test statistique Kappa : programmation informatique et applications pratiques." Paris 5, 1996. http://www.theses.fr/1996PA05P072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Waeselynck, Hélène. "Vérification de logiciels critiques par le test statistique." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT010H.

Full text
Abstract:
Les travaux presentes dans ce memoire concernent l'utilisation du test statistique en tant que technique de verification pour les logiciels critiques, c'est-a-dire presentant des contraintes de surete elevee. Le test statistique consiste a executer un programme avec des entrees aleatoires, le profil de test et le nombre d'entrees a generer etant determines a partir de criteres bases sur l'analyse structurelle ou fonctionnelle de ce programme: ce mode de generation probabiliste permet de compenser l'imperfection des criteres actuels vis-a-vis des fautes recherchees, imperfection qui les rend d'autant plus insuffisants dans le cas de logiciels critiques. Le potentiel de l'approche proposee est justifie par une etude theorique sur les causes d'echec d'un test; sa faisabilite et son efficacite sont illustrees experimentalement sur un programme issu du domaine nucleaire. Pour le test unitaire, on montre l'efficacite d'une approche combinant le test statistique structurel avec un test deterministe des valeurs aux limites. Pour le test de composants logiciels complexes, la conception du test statistique s'effectue a partir d'une specification modulaire comprenant des modeles comportementaux. Des modeles classiques sont d'abord envisages (machines a etats finis et tables de decision); puis l'approche est affinee en considerant une specification basee sur des modeles plus sophistiques: les statecharts
APA, Harvard, Vancouver, ISO, and other styles
4

Saumard, Mathieu. "Contribution à l'analyse statistique des données fontionnelles." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
APA, Harvard, Vancouver, ISO, and other styles
5

Oudinet, Johan. "Approches combinatoires pour le test statistique à grande échelle." Paris 11, 2010. http://www.theses.fr/2010PA112347.

Full text
Abstract:
Cette thèse porte sur le développement de méthodes combinatoires pour le test et la vérification formelle. En particulier, sur des approches probabilistes lorsque la vérification exhaustive n'est plus envisageable. Dans le cadre du test (basé sur un modèle), je cherche à guider l'exploration aléatoire du modèle afin de garantir une bonne satisfaction du critère de couverture attendu, quelle que soit la topologie sous-jacente du modèle exploré. Dans le cadre du model-checking, je montre comment générer aléatoirement un nombre fini de chemins pour savoir si une propriété est satisfaite avec une certaine probabilité. Dans une première partie, je compare différents algorithmes pour générer uniformément des chemins dans un automate. Puis je propose un nouvel algorithme qui offre un bon compromis avec une complexité en espace sous-linéaire en la longueur des chemins et une complexité quasi-linéaire en temps. Cet algorithme permet l'exploration d'un modèle de plusieurs dizaines de millions d'états en y générant des chemins de plusieurs centaines de milliers de transitions. Dans une seconde partie, je présente une manière de combiner réduction par ordres partiels et génération à la volée pour explorer des systèmes concurrents sans construire le modèle global, mais en s'appuyant uniquement sur les modèles des composants. Enfin, je montre comment biaiser les algorithmes précédents pour satisfaire d'autres critères de couverture. Lorsque ces critères ne sont pas basés sur des chemins, mais un ensemble d'états ou de transitions, nous utilisons une solution mixte pour assurer à la fois un ensemble varié de moyens d'atteindre ces états ou transitions et la satisfaction du critère avec une bonne probabilité
This thesis focuses on the development of combinatorial methods for testing and formal verification. Particularly on probabilistic approaches because exhaustive verification is often not tractable for complex systems. For model-based testing, I guide the random exploration of the model to ensure a satisfaction with desired probability of the expected coverage criterion, regardless of the underlying topology of the explored model. Regarding model-checking, I show how to generate a random number of finite paths to check if a property is satisfied with a certain probability. In the first part, I compare different algorithms for generating uniformly at random paths in an automaton. Then I propose a new algorithm that offers a good compromise with a sub-linear space complexity in the path length and a almost-linear time complexity. This algorithm allows the exploration of large models (tens of millions of states) by generating long paths (hundreds of thousands of transitions). In a second part, I present a way to combine partial order reduction and on-the-fly generation techniques to explore concurrent systems without constructing the global model, but relying on models of the components only. Finally, I show how to bias the previous algorithms to satisfy other coverage criteria. When a criterion is not based on paths, but on a set of states or transitions, we use a mixed solution to ensure both various ways of exploring those states or transitions and the criterion satisfaction with a desired probability
APA, Harvard, Vancouver, ISO, and other styles
6

Petit, Matthieu. "Test statistique structurel par résolution par contraintes de choix probabiliste." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/petit.pdf.

Full text
Abstract:
Dans cette thèse, une méthode de génération statistique de données de test est présentée. Les jeux de tests générés respectent certaines propriétés probabilistes : la sélection uniforme de chemins exécutables satisfaisant un objectif de test structurel et la sélection uniforme de données de test activant le chemin sélectionné. Pour adresser ce problème, nous combinons une modélisation stochastique et à contraintes pour adresser le problème de génération statistique de données de test. Des contraintes permettant de modéliser des choix probabilistes partiellement connus sont définies. Dans ce cadre de travail, la sélection uniforme de chemins exécutables est exprimée comme un programme à contrainte de choix probabiliste. Un algorithme permet la sélection uniforme des données de test activant le chemin sélectionné. Le prototype GENETTA a permis de valider la méthode de test. Notre librairie de contraintes de choix probabiliste PCC(FD) constitue le coeur de ce prototype
In this thesis, a method to automatically generate test data at random is proposed. The test data generator respects strong probabilistic properties: uniform selection of feasible paths that satisfy the coverage of structural testing criteria and uniform selection of test data that execute the selected paths. We combine stochastic and constraint modelling to address the statistical test data generation problem. Stochastic modelling is based on the assumption that the distribution probability is known. We define probabilistic choice constraints to reason on random variables whose probability distribution is only partially known. In this framework, uniform selection of feasible paths is expressed as a problem of probabilistic choice constraints. An algorithm is proposed to generate uniformly test data that activate a path. GENETTA tools permits to validate the statistical test data generator. This tool uses our library of probabilistic choice constraints PCC(FD)
APA, Harvard, Vancouver, ISO, and other styles
7

Petit, Matthieu Jensen Thomas. "Test statistique structurel par résolution par contraintes de choix probabiliste." Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/petit.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules." Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
APA, Harvard, Vancouver, ISO, and other styles
9

DUCHENE, CHRISTINE. "Test statistique de la validite des modeles oceaniques equatoriaux a l'aide d'observations." Paris 6, 1989. http://www.theses.fr/1989PA066164.

Full text
Abstract:
Une nouvelle methode de validation de modeles numeriques, basee sur l'analyse statistique multivariee, a ete developpee pour fournir une mesure objective de l'accord entre simulation et observations en tenant compte des erreurs des observations oceaniques et atmospheriques. Les simulations du cycle saisonnier des courants superficiels et de l'elevation de la surface libre d'un modele lineaire multimode, avec une couche de melange simplifiee et force par le vent, sont ainsi comparees aux observations de derives de bateaux et de hauteur dynamique 0-400 db dans l'atlantique tropical. Notre analyse modelise, par une etude detaillee des observations, les erreurs sur les donnees oceaniques et prend en compte les incertitudes dans la reponse du modele dues aux erreurs aleatoires et a la variabilite interannuelle du forcage atmospherique. Parmi les erreurs et biais systematiques des observations, seules les incertitudes inherentes a la formulation empirique de la tension du vent ont ete estimees. Notre etude montre que ces incertitudes ne sont pas suffisantes pour expliquer les larges differences entre observations et predictions, donc que celles-ci sont essentiellement dues a la trop grande simplicite de la physique representee par ce modele. Elle fait apparaitre, de plus, que le modele simule mieux la variabilite saisonniere que le cycle saisonnier moyen, et la topographie dynamique que les courants de surface. Cette methode se montre particulierement puissante pour la mise au point de modele. Elle nous a permis de determiner la resolution verticale optimale: 3 modes avec une couche de melange de 50 m. Elle est egalement efficace pour l'intercomparaison de modeles. Le modele non lineaire a deux couches du lodyc fournit une estimation legerement meilleure des courants superficiels saisonniers et annuels, mais c'est le modele de circulation generale du gfdl, qui est le plus proche des observations
APA, Harvard, Vancouver, ISO, and other styles
10

Falissard, Bruno. "Les analyses intermediaires dans les essais therapeutiques." Paris 11, 1990. http://www.theses.fr/1990PA11T008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Nze, Ossima Arnaud Davin. "Evaluation statistique des outils diagnostiques et pronostiques à l'aide des surfaces ROC." Thesis, Montpellier 1, 2014. http://www.theses.fr/2014MON1T005/document.

Full text
Abstract:
Dans le diagnostic médical, la surface ROC est l'outil statistique utilisée pour évaluer la précision d'un test diagnostic dans la discrimination de trois états d'une maladie, et le volume sous la surface ROC est l'indice utilisé pour la quantification de la performance du test. Dans certaines situations, différents facteurs peuvent affecter les résultats du test et ainsi les mesures de précision. Dans le cas des études longitudinales, le statut du patient peut changer au cours du temps. Dans ce manuscrit, nous avons développé des méthodes statistiques permettant d'évaluer les capacités discriminatoires des outils diagnostics et pronostics. Nous avons d'abord proposé une méthode semi-paramétrique pour estimer la surface ROC sous des modèles de rapport de densité. La construction de la méthode proposée est basée sur le modèle logit à catégories adjacentes et l'approche de vraisemblance empirique. Nous avons décrit la méthode bootstrap pour l'inférence des estimateurs obtenus. Ensuite, nous avons présenté une méthode d'estimation des surfaces ROC appelée famille de Lehmann des surfaces ROC. Cette méthode est basée sur la famille d'alternatives de Lehmann ou modèle à hasards proportionnels. Elle a l'avantage de prendre en compte les covariables qui peuvent affecter la précision d'un test diagnostic. En outre, nous avons développé une surface ROC covariable-spécifique basée sur la règle de Bayes. Pour cela, nous avons proposé un estimateur semi-paramétrique pour les surfaces ROC covariable-spécifique via des procédures de régression logistique polytomique et un modèle semi-paramétrique de localisation. Enfin, dans le cas où le statut du patient peut évoluer à travers différents stades d'une maladie, une méthode des surfaces ROC dépendant du temps a été développée. L'estimateur obtenu utilise l'approche "Inverse Probability of Censoring Weighting" (IPCW). Des simulations et des exemples sont fournis afin d'illustrer la performance des estimateurs proposés
In diagnostic medical, the receiver operating characteristic (ROC) surface is the statistical tool used to assess the accuracy of a diagnostic test in discriminating three disease states, and the volume under the ROC surface is the used index for the quantification of the performance of the test. In some situations, various factors can affect the test results and subsequently the accuracy measures. In the case of longitudinal studies, the patient's status may change over time. In this manuscript, we developed statistical methods to assess the discriminatory capabilities of diagnostic and pronostic tools. We first proposed a semiparametric method for estimating ROC surface under density ratio models. The construction of the proposed method is based on the adjacent-category logit model and the empirical likelihood approach. We described the bootstrap method for inference of the obtained estimators. Next, we presented a method for estimating ROC surfaces called Lehmann family ROC surfaces. This method is based on the family of Lehmann alternatives or proportional hazards model. It has the advantage of taking into account covariates that may affect the accuracy of a diagnostic test. Moreover, we have developed a covariate-specific ROC surface based on the Bayes rule. For that, we proposed semiparametric estimator for covariate-specific ROC surfaces via polytomous logistic regression procedures and a semiparametric location model. Finally, in the case where patient's status may evolve through different stages of disease a method of time-dependent ROC surfaces was developed. The proposed estimator uses the "Inverse Probability of Censoring Weighting" (IPCW) approach. Simulations and examples are provided to illustrate the performance of the proposed estimators
APA, Harvard, Vancouver, ISO, and other styles
12

Leconte-Lavaud, Evelyne. "Modeles et tests pour l'analyse statistique des donnees censurees multivariees." Paris 11, 1995. http://www.theses.fr/1995PA11T014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Guen Hélène. "Validation d'un logiciel par le test statistique d'usage : de la modélisation à la décision de livraison." Rennes 1, 2005. http://www.theses.fr/2005REN1S049.

Full text
Abstract:
Le test de logiciel est un domaine complexe, et le temps alloué au test peut être réduit dans certains cas. Dans ce cadre nous proposons une méthode complète pour la validation de logiciel allant de l'élaboration du plan de test jusqu'à la décision de livraison. Notre méthode est basée sur le test statistique d'usage, en prenant en considération le test de conformité ainsi que de nouvelles avancées du test de logiciel. La méthode présentée consiste à modéliser le comportement externe du système à l'aide de chaînes de Markov. Plusieurs résultats avant test permettent de planifier au mieux la phase de validation. Ce modèle est ensuite utilisé pour la génération automatique de séquences de test. Nous nous sommes intéressés à la couverture de test lorsque le logiciel est modélisé par des diagrammes à états. En utilisant une définition de couverture de test basée sur les données et la structure fonctionnelle, nous proposons une nouvelle solution pour l'estimation de la fiabilité.
APA, Harvard, Vancouver, ISO, and other styles
14

Dupuis, Jérôme. "Analyse statistique bayesienne de modèles de capture-recapture." Paris 6, 1995. http://www.theses.fr/1995PA066077.

Full text
Abstract:
Le modele statistique de base que nous considerons, consiste en n realisations simultanees et i. I. D. D'un processus d'interet ramene a une chaine de markov, avec donnees manquantes, non homogene, a espace d'etat fini comportant un unique etat absorbant. Alors que l'estimateur du maximum de vraisemblance est actuellement disponible l'analyse statistique bayesienne de ce modele de capture-recapture n'a pas encore ete abordee. L'estimation bayesienne des probabilites de survie et de mouvement du modele de base est realisee via l'algorithme de gibbs. Des conditions suffisantes de convergence de l'algorithme sont etablies. Puis nous developpons des tests afin d'apprehender les differentes sources d'heterogeneite (temporelle, individuelle et environnementale) du phenomene biologique represente par la chaine de markov. Le test d'homogeneite temporelle que nous construisons formule la question d'interet en terme de divergence acceptable entre la chaine initiale et sa projection (au sens de la distance de kullback) sur l'espace des chaines de markov homogenes. Nous developpons ensuite des tests formules en terme d'independance conditionnelle permettant de mettre en evidence un effet differe d'un processus auxiliaire (variable aleatoire discrete environnementale ou individuelle, dependant ou non du temps) sur le processus d'interet. Enfin, pour la premiere fois en capture-recapture, une situation de non-independance des comportements migratoires est envisagee. Nous considerons une structure de dependance de nature unilaterale qui permet de rendre compte d'un eventuel effet guide en dynamique des populations animales
APA, Harvard, Vancouver, ISO, and other styles
15

Ignaccolo, Rosaria. "Tests d'ajustement fonctionnels pour des observations corrélées." Paris 6, 2002. http://www.theses.fr/2002PA066416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Ribes, Aurélien. "Détection statistique des changements climatiques." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00439861.

Full text
Abstract:
Selon le Groupe Intergouvernemental d'experts sur l'Evolution du Climat (GIEC), la détection est la démonstration statistique de ce qu'un changement observé ne peut pas être expliqué par la seule variabilité interne naturelle du climat. Cette thèse s'intéresse à la détection des changements climatiques à l'échelle régionale, et en particulier aux méthodes statistiques adaptées à ce type de problématique. Plusieurs procédures de tests statistiques sont ainsi présentées et étudiées. La première méthode développée consiste à rechercher, dans les observations, la présence d'un signal de changements climatiques dont la distribution spatiale est connue. Dans ce cas, une nouvelle adaptation de la méthode des empreintes digitales optimales a été proposée, basée sur l'utilisation d'un estimateur bien conditionné de la matrice de covariance de la variabilité interne du climat. Une seconde approche propose de rechercher un signal ayant une forme d'évolution temporelle particulière. La forme recherchée peut alors être évaluée à partir de scénarios climatiques en utilisant des fonctions de lissage "splines". Une troisième stratégie consiste à étudier la présence d'un changement non spécifié à l'avance, mais qui vérifie une propriété de séparabilité espace-temps, et qui présente une certaine régularité en temps. On utilise dans ce cas un formalisme de statistique fonctionnelle, pour construire un test de significativité de la première composante principale lisse, basé sur le rapport des vraisemblances pénalisées. L'application de ces différentes méthodes sur des données observées sur la France et le bassin Méditerranéen a permis de mettre en évidence de nouveaux résultats concernant les changements climatiques en cours sur ces deux domaines. Des changements significatifs sont notamment mis en évidence sur les températures annuelles et saisonnières, ainsi que sur les précipitations annuelles, dans le cas de la France. Ces changements ne sont pas uniformes en espace et modifient la distribution régionale de la variable étudiée. La comparaison des différentes méthodes de détection proposées a également permis de discuter de la capacité des modèles de climat à simuler correctement les caractéristiques spatiales et temporelles des changements climatiques.
APA, Harvard, Vancouver, ISO, and other styles
17

Akkouche, Nourredine. "Optimisation du test de production de circuits analogiques et RF par des techniques de modélisation statistique." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00625469.

Full text
Abstract:
La part dû au test dans le coût de conception et de fabrication des circuits intégrés ne cesse de croître, d'où la nécessité d'optimiser cette étape devenue incontournable. Dans cette thèse, de nouvelles méthodes d'ordonnancement et de réduction du nombre de tests à effectuer sont proposées. La solution est un ordre des tests permettant de détecter au plus tôt les circuits défectueux, qui pourra aussi être utilisé pour éliminer les tests redondants. Ces méthodes de test sont basées sur la modélisation statistique du circuit sous test. Cette modélisation inclus plusieurs modèles paramétriques et non paramétrique permettant de s'adapté à tous les types de circuit. Une fois le modèle validé, les méthodes de test proposées génèrent un grand échantillon contenant des circuits défectueux. Ces derniers permettent une meilleure estimation des métriques de test, en particulier le taux de défauts. Sur la base de cette erreur, un ordonnancement des tests est construit en maximisant la détection des circuits défectueux au plus tôt. Avec peu de tests, la méthode de sélection et d'évaluation est utilisée pour obtenir l'ordre optimal des tests. Toutefois, avec des circuits contenant un grand nombre de tests, des heuristiques comme la méthode de décomposition, les algorithmes génétiques ou les méthodes de la recherche flottante sont utilisées pour approcher la solution optimale.
APA, Harvard, Vancouver, ISO, and other styles
18

Cénac, Peggy. "Étude statistique de séquences biologiques et convergence de martingales." Toulouse 3, 2006. http://www.theses.fr/2006TOU30065.

Full text
Abstract:
Le système dynamique Chaos Game Representation associe à une suite de lettres dans un alphabet fini, une mesure empirique sur un ensemble. Fournit-elle plus d'information que les méthodes de comptage de mots classiques ? A partir d'une caractérisation basée sur la CGR, on propose une nouvelle famille de tests donnant l'ordre d'une chaîne de Markov homogène. On définit ensuite une construction d'arbres digitaux de recherche, inspirés par la CGR, en insérant successivement les préfixes retournés d'une chaîne de Markov. On montre que les longueurs des branches critiques se comportent, au premier ordre, comme si les séquences insérées étaient indépendantes entre elles. La dernière partie est consacrée à l'étude de la convergence presque sûre des moments normalisés de tout ordre de martingales vectorielles dans le théorème de la limite centrale presque sûr. Les résultats sont appliqués aux erreurs d'estimation et de prédiction dans les régressions linéaires et les processus de branchement
The Chaos Game Representation is a dynamical system which maps a sequence of letters taken from a finite alphabet onto an empirical measure on a set. We show how the CGR can be used to characterize the order of an homogeneous Markov chain and to define a new family of tests. Then we propose a construction of Digital Search Trees, inspired from the CGR, by successively inserting all the returned prefixes of a Markov chain. We give the asymptotic behavior of the critical lengths of paths, which turns out to be, at first order, the same one as in the case of DST built from independent Markov chains. A last part deals with properties of almost sure convergence of vectorial martingales. Under suitable regularity conditions on the growing process, we establish the convergence of normalized moments of all orders in the almost sure central limit theorem. The results are applied to the cumulated errors of estimation and prediction in linear regression models and branching processes
APA, Harvard, Vancouver, ISO, and other styles
19

Ben, Ghorbal Noomen. "Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangs." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27602/27602.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Bousquet, Lydie du. "Test fonctionnel statistique de logiciels spécifiés en Lustre : application à la validation de services téléphoniques." Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004828.

Full text
Abstract:
Ce travail s'inscrit dans le cadre de la conception d'environnements de test fonctionnel de systèmes réactifs spécifiés formellement en Lustre. Lutess est un tel environnement. Il permet la génération automatique et dynamique de données de test. Cette génération est menée sous contraintes, de manière aléatoire, et éventuellement guidée par des propriétés. Nous avons étendu cet environnement par une méthode de test de type statistique, qui facilite la génération des données de test considérées comme significatives par l'utilisateur. Nous avons validé expérimentalement Lutess avant et après son extension, en montrant que les données générées étaient bien aléatoires et qu'elles respectaient les distributions statistiques attendues. De plus, nous avons utilisé Lutess et la méthode proposée de façon intensive pour la validation de spécifications de services téléphoniques sur deux études de cas conséquentes : une fournie par le CNET et une autre sous la forme d'un concours proposé en marge de la conférence "Feature Interaction Workshop'98". A cette occasion, Lutess a été déclaré "meilleur outil pour la détection d'interactions de services téléphoniques"
APA, Harvard, Vancouver, ISO, and other styles
21

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
APA, Harvard, Vancouver, ISO, and other styles
22

Vimond, Myriam. "Inférence statistique par des transformées de Fourier pour des modèles de régression semi-paramétriques." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00185102.

Full text
Abstract:
Dans cette thèse, nous étudions des modèles semi-paramétriques dits de forme invariante. Ces modèles consistent en l'observation d'un nombre fixés de fonctions de régression identiques à un opérateur de déformation paramétriques près. Ce type de modèles trouve des applications dans les problèmes d'alignement de signaux continus (images 2D, rythmes biologiques, ...) ou discrets (electroencéphalogramme, ...). Pour différents groupes de déformations, nous proposons des M-estimateurs pour les paramètres caractérisant les opérateurs associés aux fonctions de régression. Ces estimateurs minimisent ou maximisent des fonctions de contraste, construites à partir de la moyenne synchronisée des transformées de Fourier des données. De plus, pour l'un des modèles étudiés, nous prouvons l'efficacité semi-paramétrique de cet estimateur ainsi défini, et nous proposons un test d'adéquation du modèle de forme invariante construit à partir d'une des fonctions de contraste.
APA, Harvard, Vancouver, ISO, and other styles
23

Djeddour, Khédidja. "Estimation récursive du mode et de la valeur modale d'une densité : test d'ajustement de loi." Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0016.

Full text
Abstract:
Ce travail est composé de trois parties. Les deux premières parties portent sur le problème de l'estimation jointe du mode et de la valeur modale d'une densité de probabilité. Les estimateurs étudiés sont des estimateurs récursifs. Celui du mode a été introduit par Tsybakov (1900) ; nous introduisons, au premier chapitre, un estimateur récursif de la valeur modale. L'objectif principal de la première partie de cette thèse est d'étudier le comportement en loi asymptotique de ce couple d'estimateurs récursifs. Cette étude nécessite l'analyse du comportement asymptotique d'une classe générale d'algorithmes stochastiques, analyse que nous éclairons ici avec le point de vue non paramétrique. Pour que le couple d'estimateurs récursifs du mode et de la valeur modale converge à la vitesse optimale, le pas des algorithmes qui définissent ces estimateurs doit être choisi en fonction d'un paramètre inconnu. Pour contourner ce problème, nous introduisons, dans la deuxième partie de cettte thèse, le principe de moyennisation des algorithmes stochastiques ; nous proposons ainsi une procédure simple pour construire un couple d'estimateurs du mode et de la valeur modale qui converge à la vitesse optimale. La troisième partie est indépendante des deux premières. Elle est consacrée à la construction d'un test d'ajustement de loi par une méthode de série de Fourier.
APA, Harvard, Vancouver, ISO, and other styles
24

Fontez, Bénédicte. "Test d'adéquation des résidus pour la régression non-linéaire. Application aux courbes de croissance en foresterie." Montpellier 2, 2001. http://www.theses.fr/2001MON20005.

Full text
Abstract:
Nous proposons une adaptation de l'approche utilisee dans le test de neyman 1937 au cas de la regression non-lineaire et plus specialement au cas des courbes de croissance. Nous illustrons nos resultats avec le cas de courbes de croissance d'arbres. On observe un ensemble de couples de valeurs (x i, y i) liees par une relation du type y = g(x) ou la fonction g est inconnue. On suppose que le modele de regression parametrique : y = b (x, ) + est valide pour , un vecteur de parametres inconnus et , un element aleatoire d'esperance nulle et de variance finie 2. On voudrait tester l'hypothese nulle, h 0 : , tel que g(x) = b(x, ). Premierement, nous etablissons de maniere explicite l'hypothese alternative au modele de regression b. Cette hypothese alternative est construite a partir d'un emboitement de type quadratique qui explore un espace de fonctions de dimension k. Donc, nous testons b(x,) par rapport a une approximation nonparametrique g k(x, , ) du vrai modele g(x), qui verifie la propriete : g k(x,,0) = b(x,). Ensuite, nous construisons un test de type rao qui possede de bonnes proprietes asymptotiques et nous le comparons aux tests edf. Puis, nous generalisons le contexte d'application de ce test au cas de la regression robuste, de la regression non-lineaire avec coefficients aleatoires et au cas de variance heterogene des erreurs. Au fur et a mesure, nous avons illustre nos resultats avec des simulations sur les modeles de croissance frequemment utilises en foresterie comme weibull, logistique et gompertz et nous avons etudie la validite d'un modele de croissance de l'okoume (arbre tropical utilise comme bois de deroulage). Les donnees proviennent de la region d'oyane dans le sud-estuaire du gabon.
APA, Harvard, Vancouver, ISO, and other styles
25

Chevalley, Philippe. "Approche statistique pour le test de logiciels critiques orientés-objet : expérimentation sur un logiciel avionique." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2001. http://www.theses.fr/2001ESAE0018.

Full text
Abstract:
Les travaux présentés dans ce mémoire ont pour objectif de définir une stratégie appropriée pour le test de logiciels critiques orientés-objet. La stratégie de test que nous préconisons s'appuie sur la complémentarité de données de test statistique et déterministe. Les entrées de test statistiques sont générées automatiquement à partir de l'information présente dans les diagrammes d'état UML; en complément, les entrées de test déterministes ciblent des points singuliers du domaine d'entrée. Cette stratégie mixte s'intègre dans un environnement commercial de modélisation (Rose RealTime) permettant ainsi la génération automatique à la fois des entrées de test statistiques et des sorties attendues. Le pouvoir d'efficacité de cette stratégie mixte est évalué par une technique d'injection de fautes logicielles, analyse de mutation. Dans ce cadre, un outil d'analyse de mutation pour programmes Java a été développé sur les bases d'une idée originale, associant analyse syntaxique et réflexivité pour l'injection de différents types de fautes (traditionnelles et orientées-objet). Ces travaux théoriques sont illustrés sur une étude de cas industrielle du domaine avionique. Les résultats expérimentaux confirment la pertinence de l'approche élaborée et montrent son efficacité prometteuse vis-à-vis de la recherche de fautes. Ces mesures d'efficacité sont complétées par une étude comparative de l'approche proposée avec une approche déterministe utilisée expérimentalement chez Rockwell-Collins.
APA, Harvard, Vancouver, ISO, and other styles
26

Rossi, Sandrine. "Test d'hypothèses dans la découverte de règles : nouvelles approches du pistage des stratégies de confirmation et d'infirmation d'hypothèses." Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX10001.

Full text
Abstract:
Le test d'hypotheses est une composante essentielle du fonctionnement cognitif. Tester une hypothese consiste, d'un point de vue formel, a eliminer tous les cas possibles, admis par la situation, dans lesquels l'hypothese est fausse, et a evaluer la plausibilite de l'hypothese en examinant l'ensemble des donnees dont on dispose. Nous etudions l'activite de test d'hypotheses au travers du paradigme de la decouverte de regles. La tache utilisee est le probleme 2-4-6 (wason, 1960). Les sujets ont, au depart de leur resolution, connaissance d'un cas conforme a la regle a decouvrir (i. E. , le triplet de nombres, "2,4,6"). Ils vont former, a partir de cette information, une ou plusieurs hypotheses sur la regle (i. E. , "toute suite de nombres croissants"). Pour la ou les tester, ils vont etre amenes a produire d'autres cas, qui vont etre valides ou rejetes par l'experimentateur, en fonction de leur conformite ou non a la regle a decouvrir. On a longtemps considere que la strategie a adopter dans ce type de tache etait une strategie d'infirmation. Elle consiste a proposer des cas non conformes aux hypotheses testees (contre-exemples). Toutefois, les resultats obtenus, relatifs aux strategies effectivement mises en oeuvre par les sujets, montrent clairement qu'ils recherchent des cas conformes a leurs hypotheses (exemples). Notre objectif est de montrer que le pistage classique des strategies de test d'hypotheses, mises en oeuvre par les sujets, n'est pas le plus approprie pour acceder a leurs strategies de raisonnement. Nous soutenons qu'il existe d'autres facons de pister ces strategies, pour lesquelles les conclusions quant aux phenomenes observes sont modifiees. Alors que les sujets ont ete classiquement consideres comme victimes d'un biais de confirmation, nos resultats permettent de conclure qu'ils sont sensibles a la pertinence de la strategie d'infirmation. Toutefois, elle est mise en oeuvre de facon detournee, non conforme aux canons de la logique formelle.
APA, Harvard, Vancouver, ISO, and other styles
27

Serra, Roger. "Sur une approche statistique de l'identification modale des structures." Besançon, 1999. http://www.theses.fr/1999BESA2055.

Full text
Abstract:
Cette thèse traite des erreurs d’identification dans le domaine fréquentiel des paramètres modaux d’une structure soumise à une excitation aléatoire. La précision des méthodes d’identification dépend des conditions dans lesquelles les mesures sont effectuées. En effet, lorsque nous réalisons plusieurs fois le même test modal dans des conditions identiques, des résultats différents sont obtenus et ceci quel que soit le soin avec lequel l’expérimentateur opèrera. Plusieurs auteurs ont proposé des méthodes de réduction du bruit des mesures basées sur des algorithmes de moyennisation des données observées. Contrairement à ces méthodes, une méthode statistique basée sur le principe des intervalles de confiance et sur l’application réciproque de la fonction de répartition à partir d’essais répétés et de données simulées type Monte-Carlo est proposée. Cette méthode permet de déterminer un intervalle de confiance contenant la vraie valeur des paramètres modaux avec un risque donné a priori. Cette valeur est inconnue et les conditions de son existence sont établies. L’avantage de notre méthode par rapport aux procédures de moyennisation classiques est que nous obtenons une approximation de la vraie valeur dont nous pouvons juger de la qualité. La détermination des intervalles de confiance pour ces paramètres pourra être exploitée lors de l’amélioration du modèle numérique. Cette thèse présente dans un premier temps les développements théoriques de notre méthode et sa performance sont testées sur deux structures réelles.
APA, Harvard, Vancouver, ISO, and other styles
28

Ghorbanzadeh, Dariush. "Détection de rupture dans les modèles statistiques." Paris 7, 1992. http://www.theses.fr/1992PA077246.

Full text
Abstract:
Ce travail concerne l'etude d'une classe de tests de detection de rupture dans les modeles statistiques. La classe de tests consideree est basee sur le test du rapport de vraisemblance. Dans le cadre de la contiguite au sens de lecam, sous l'hypothese nulle (non rupture) et sous l'hypothese alternative (rupture), les lois asymptotiques des statistiques de tests sont evaluees, ce qui permet de determiner asymptotiquement les regions critiques des tests. Les expressions analytiques des puissances asymptotiques sont proposees. En utilisant les techniques de l'analyse discriminante, le probleme de la detection du passage en sida avere a ete etudie par application directe sur les donnees concernant 450 patients hiv-positifs
APA, Harvard, Vancouver, ISO, and other styles
29

Akkouche, N. "Optimisation du test de production de circuits analogiques et RF par des techniques de modélisation statistique." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00669605.

Full text
Abstract:
La part dû au test dans le coût de conception et de fabrication des circuits intégrés ne cesse de croître, d'où la nécessité d'optimiser cette étape devenue incontournable. Dans cette thèse, de nouvelles méthodes d'ordonnancement et de réduction du nombre de tests à effectuer sont proposées. La solution est un ordre des tests permettant de détecter au plus tôt les circuits défectueux, qui pourra aussi être utilisé pour éliminer les tests redondants. Ces méthodes de test sont basées sur la modélisation statistique du circuit sous test. Cette modélisation inclus plusieurs modèles paramétriques et non paramétrique permettant de s'adapté à tous les types de circuit. Une fois le modèle validé, les méthodes de test proposées génèrent un grand échantillon contenant des circuits défectueux. Ces derniers permettent une meilleure estimation des métriques de test, en particulier le taux de défauts. Sur la base de cette erreur, un ordonnancement des tests est construit en maximisant la détection des circuits défectueux au plus tôt. Avec peu de tests, la méthode de sélection et d'évaluation est utilisée pour obtenir l'ordre optimal des tests. Toutefois, avec des circuits contenant un grand nombre de tests, des heuristiques comme la méthode de décomposition, les algorithmes génétiques ou les méthodes de la recherche flottante sont utilisées pour approcher la solution optimale.
APA, Harvard, Vancouver, ISO, and other styles
30

Rasoafaraniaina, Rondrotiana J. "Preliminary test estimation in uniformly locally and asymptotically normal models." Doctoral thesis, Universite Libre de Bruxelles, 2020. https://dipot.ulb.ac.be/dspace/bitstream/2013/312253/4/Contents.pdf.

Full text
Abstract:
The present thesis provides a general asymptotic theory for preliminary test estimators (PTEs). PTEs are typically used when one needs to estimate a parameter having some uncertain prior information about it. In the literature, preliminary test estimation have been applied to some specific models, but no general asymptotic theory was already available to the best of our knowledge. After a study of PTEs in a multisample principal component context, we first provide a general asymptotic theory for PTEs in uniformly, locally and asymptotically normal (ULAN) models. An extensive list of statistical and econometric models are ULAN making our results quite general. Our main results are obtained using the Le Cam asymptotic theory under the assumption that the estimators involved in the PTEs admit Bahadur-type asymptotic representations. Then, we propose PTEs involving multiple tests and therefore multiple constrained estimators; we call them preliminary multiple test estimators. For the latter, we also derive a very general asymptotic theory in ULAN models. Our theoretical results are illustrated on problems involving the estimation of covariance matrices both via simulations and a real data example.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
31

Cenac, Peggy. "Etude statistique de séquences biologiques et convergence de martingales." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00134328.

Full text
Abstract:
Le système dynamique Chaos Game Representation associe une suite de lettres dans un alphabet fini, une mesure empirique sur un ensemble. Fournit-elle plus d'information
que les méthodes de comptage de mots classiques ? A
partir d'une caractérisation basée sur la CGR, on propose une nouvelle famille de
tests donnant l'ordre d'une chaîne de Markov homogène.
On définit ensuite une construction d'arbres digitaux de recherche,
inspirés par la CGR, en insérant successivement les préfixes retournés d'une chaîne de Markov. On montre que les longueurs des branches critiques se comportent, au premier ordre, comme si les
séquences insérées étaient indépendantes entre elles.
La dernière partie est consacrée à l'étude de la convergence presque sûre des moments normalisés de tout ordre de martingales vectorielles dans le théorème de la limite centrale
presque sûr. Les résultats sont appliqués aux erreurs d'estimation et de prédiction dans les régressions linéaires et les processus de branchement.
APA, Harvard, Vancouver, ISO, and other styles
32

FERRIGNO, Sandie. "Un test d'adéquation global pour la fonction de répartition conditionnelle." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2004. http://tel.archives-ouvertes.fr/tel-00008559.

Full text
Abstract:
Soient X et Y , deux variables aléatoires. De nombreuses procédures statistiques permettent d'ajuster un modèle à ces données dans le but d'expliquer Y à partir de X. La mise en place d'un tel modèle fait généralement appel à diverses hypothèses que
l'on doit valider pour justifier son utilisation. Dans ce travail, on propose une approche globale où toutes les hypothèses faites pour asseoir ce modèle sont testées simultanément.
Plus précisément, on construit un test basé sur une quantité qui permet de canaliser toute l'information liant X à Y : la fonction de répartition conditionnelle de Y sachant (X = x) définie par F(y|x)=P(Y<=y|X=x). Notre test compare la valeur prise par l'estimateur polynômial local de F(y|x) à une estimation paramétrique du modèle supposé et rejette sa
validité si la distance entre ces deux quantités est trop grande. Dans un premier temps, on considère le cas où la fonction de répartition supposée est entièrement spécifiée et, dans
ce contexte, on établit le comportement asymptotique du test. Dans la deuxième partie du travail, on généralise ce résultat au cas plus courant en pratique où le modèle supposé contient un certain nombre de paramètres inconnus. On étudie ensuite la puissance locale du test en déterminant son comportement asymptotique local sous des suites d'hypothèses contigües. Enfin, on propose un critère de choix de la fenêtre d'ajustement qui intervient lors de l'étape d'estimation polynômiale locale de la fonction de répartition conditionnelle.
APA, Harvard, Vancouver, ISO, and other styles
33

Alves, Fonseca Renan. "Test et Fiabilité des Mémoires SRAM." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20055/document.

Full text
Abstract:
Aujourd'hui, les mémoires SRAM sont faites avec les technologies les plus rapides et sont parmi les éléments les plus importants dans les systèmes complexes. Les cellules SRAM sont souvent conçues en utilisant les dimensions minimales du nœud technologique. En conséquence, les SRAM sont plus sensibles à de nouveaux phénomènes physiques qui se produisent dans ces technologies, et sont donc extrêmement vulnérables aux défauts physiques. Afin de détecter si chaque composant est défectueux ou non, des procédures de test de haut coût sont employées. Différentes questions liées à cette procédure de test sont compilées dans ce document. Un des principaux apports de cette thèse est d'établir une méthode pour définir les conditions environnementales lors de la procédure de test afin de capter des défauts non-déterministe. Puisque des simulations statistiques sont souvent utilisées pour étudier des défauts non-déterministes, une méthode de simulation statistique efficace a été spécialement conçue pour la cellule SRAM. Dans cette thèse, nous traitons aussi la caractérisation de fautes, la caractérisation de la variabilité et la tolérance aux fautes
Nowadays, Static Random Access Memories (SRAM) are made with the fastest technologies and are among the most important components in complex systems. SRAM bit-cell transistors are often designed using the minimal dimensions of the technology node. As a consequence, SRAMs are more sensitive to new physical phenomena that occur in these technologies, and hence are extremely vulnerable to physical defects. In order to detect whether each component is defective or not, high cost test procedures are employed. Different issues related to this test procedure were studied during this thesis, and are compiled in this document. One of the main contributions of this thesis was to establish a method to set the environmental conditions during the test procedure in order to capture non-deterministic faults. Since statistical simulations are often used to deal with non-deterministic faults, an efficient statistical simulation method was specially conceived for the 6 transistors SRAM bit-cell. In this thesis, we equally deal with fault characterization, variability characterization and fault tolerance
APA, Harvard, Vancouver, ISO, and other styles
34

d'Estampes, Ludovic. "Traitement statistique des processus alpha-stables: mesures de dépendance et identification des ar stables. Test séquentiels tronqués." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2003. http://tel.archives-ouvertes.fr/tel-00005216.

Full text
Abstract:
Dans ce travail, nous étudions de manière approfondie les lois $\al$-stables (lois à variance infinie). Dans le premier chapitre, nous rappelons les différentes propriétés des lois $\al$-stables univariées (stabilité, calcul des moments, simulation). Nous introduisons ensuite les lois symétriques $\al$-stables (\SaS) multivariées. Après avoir parlé de la mesure spectrale et de son intérêt pour caractériser l'indépendance, nous nous concentrons sur les mesures de dépendance. Constatant que le coefficient de covariation, largement utilisé actuellement, admet certaines limites, nous construisons dans le deuxième chapitre une nouvelle mesure de dépendance, appelée coefficient de covariation symétrique. Ce dernier nous permet, entre autres, de découvrir quelques spécificités des vecteurs \SaS. En effet, contrairement aux vecteurs gaussiens, on peut obtenir pour certains vecteurs \SaS\ à la fois une dépendance positive et une dépendance négative. Après avoir conclu le chapitre par l'étude de la loi asymptotique de l'estimateur du coefficient de covariation, nous abordons, dans le troisième chapitre, les processus autorégressifs à innovations stables. Nous présentons les différentes méthodes d'identification de l'ordre d'un processus AR: autocorrélation partielle (Brockwell et Davis) et statistiques quadratiques asymptotiquement invariantes basées sur les rangs (Garel et Hallin). De nombreuses simulations, effectuées en Matlab et Fortran, nous permettent de comparer ces méthodes et de constater l'importance du rôle joué par les statistiques de rang dans ce domaine. Pour finir, un problème de test séquentiel, développé dans le cadre d'un contrat industriel, nous permet d'introduire la notion de niveau de confiance après décision.
APA, Harvard, Vancouver, ISO, and other styles
35

Charles, Olivier. "Application des hypothèses de test à une définition de la couverture." Nancy 1, 1997. http://www.theses.fr/1997NAN10255.

Full text
Abstract:
Le test de conformité est l'activité qui consiste à s'assurer qu'un produit fini remplit bien les fonctions pour lesquelles il a été conçu. Du fait de leur complexité, les systèmes de communication ne peuvent être testés exhaustivement. Dans la pratique, les tests réels sont donc souvent incomplets et imparfaits. La couverture de test, sous ses différentes formes, est une notion qui vise à rendre compte de cette imperfection. C'est donc une mesure de qualité importante pour la sélection ou la génération automatique de test. Lorsqu'ils sélectionnent les tests, les experts du test fondent leurs choix sur des hypothèses de test. Autrement dit, leur expérience leur permet d'inférer quelles sont les bonnes propriétés de l'implantation qui leur permettront de soulager l'effort de test. Dans cette thèse nous proposons de définir la H-couverture de test comme l'ensemble des hypothèses qu'il est pertinent de faire pour que le test réel soit équivalent au test exhaustif. Dans une première partie, nous définissons précisément ce qu'est la H-couverture et nous montrons que pour rendre cette mesure effective ; il est nécessaire de disposer d'un système d'écriture des hypothèses. Dans une deuxième partie, nous apportons une solution au problème sur un modèle particulier de systèmes : les automates à entrées et sorties. Nous proposons dans un premier temps de représenter les hypothèses par le biais d'ensembles de traces puis, dans un deuxième temps comme des transformateurs d'automates
Conformance testing aims at checking that a product complies to the requirements for which it has been developed. Because of their complexity, communicating systems cannot be tested exhaustively. In practice, real tests are incomplete and never perfect. The goal of test coverage is to express this imperfection. So, it is an important measure for test selection and automatic test generation. When selecting test suites, test experts make choices based on test hypotheses. In other words, their experience of testing allows them to infer some good properties on the imlementation which decrease test effort. In this thesis, we propose to define H-coverage as the set of hypotheses which must be made such that the implementation is equivalent to the exhaustive test. In a first part, we precisely define H-coverage and we show that it is necessary to have a formalism available to write hypotheses in order to compute this measure. In a second part we solve the problem for a particular set of systems : the input outputautomata. First we propose to write hypotheses through trace sets, and then as automata transformers
APA, Harvard, Vancouver, ISO, and other styles
36

Chokri, Khalid. "Contributions à l'inférence statistique dans les modèles de régression partiellement linéaires additifs." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066439/document.

Full text
Abstract:
Les modèles de régression paramétrique fournissent de puissants outils pour la modélisation des données lorsque celles-ci s’y prêtent bien. Cependant, ces modèles peuvent être la source d’importants biais lorsqu’ils ne sont pas adéquats. Pour éliminer ces biais de modélisation, des méthodes non paramétriques ont été introduites permettant aux données elles mêmes de construire le modèle. Ces méthodes présentent, dans le cas multivarié, un handicap connu sous l’appellation de fléau de la dimension où la vitesse de convergence des estimateurs est une fonction décroissante de la dimension des covariables. L’idée est alors de combiner une partie linéaire avec une partie non-linéaire, ce qui aurait comme effet de réduire l’impact du fléau de la dimension. Néanmoins l’estimation non-paramétrique de la partie non-linéaire, lorsque celle-ci est multivariée, est soumise à la même contrainte de détérioration de sa vitesse de convergence. Pour pallier ce problème, la réponse adéquate est l’introduction d’une structure additive de la partie non-linéaire de son estimation par des méthodes appropriées. Cela permet alors de définir des modèles de régression partièllement linéaires et additifs. L’objet de la thèse est d’établir des résultats asymptotiques relatifs aux divers paramètres de ce modèle (consistance, vitesses de convergence, normalité asymptotique et loi du logarithme itéré) et de construire aussi des tests d’hypothèses relatives à la structure du modèle, comme l’additivité de la partie non-linéaire, et à ses paramètres
Parametric regression models provide powerful tools for analyzing practical data when the models are correctly specified, but may suffer from large modelling biases when structures of the models are misspecified. As an alternative, nonparametric smoothing methods eases the concerns on modelling biases. However, nonparametric models are hampered by the so-called curse of dimensionality in multivariate settings. One of the methods for attenuating this difficulty is to model covariate effects via a partially linear structure, a combination of linear and nonlinear parts. To reduce the dimension impact in the estimation of the nonlinear part of the partially linear regression model, we introduce an additive structure of this part which induces, finally, a partially linear additive model. Our aim in this work is to establish some limit results pertaining to various parameters of the model (consistency, rate of convergence, asymptotic normality and iterated logarithm law) and to construct some hypotheses testing procedures related to the model structure, as the additivity of the nonlinear part, and to its parameters
APA, Harvard, Vancouver, ISO, and other styles
37

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Full text
Abstract:
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène
We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
APA, Harvard, Vancouver, ISO, and other styles
38

Massiot, Gaspar. "Quelques Problèmes de Statistique autour des processus de Poisson." Thesis, Rennes, École normale supérieure, 2017. http://www.theses.fr/2017ENSR0006/document.

Full text
Abstract:
L’objectif principal de cette thèse est de développer des méthodologies statistiques adaptées au traitement de données issues de processus stochastiques et plus précisément de processus de Cox.Les problématiques étudiées dans cette thèse sont issues des trois domaines statistiques suivants : les tests non paramétriques, l’estimation non paramétrique à noyaux et l’estimation minimax.Dans un premier temps, nous proposons, dans un cadre fonctionnel, des statistiques de test pour détecter la nature Poissonienne d’un processus de Cox.Nous étudions ensuite le problème de l’estimation minimax de la régression sur un processus de Poisson ponctuel. En se basant sur la décomposition en chaos d’Itô, nous obtenons des vitesses comparables à celles atteintes pour le cas de la régression Lipschitz en dimension finie.Enfin, dans le dernier chapitre de cette thèse, nous présentons un estimateur non-paramétrique de l’intensité d’un processus de Cox lorsque celle-ci est une fonction déterministe d’un co-processus
The main purpose of this thesis is to develop statistical methodologies for stochastic processes data and more precisely Cox process data.The problems considered arise from three different contexts: nonparametric tests, nonparametric kernel estimation and minimax estimation.We first study the statistical test problem of detecting wether a Cox process is Poisson or not.Then, we introduce a semiparametric estimate of the regression over a Poisson point process. Using Itô’s famous chaos expansion for Poisson functionals, we derive asymptotic minimax properties of our estimator.Finally, we introduce a nonparametric estimate of the intensity of a Cox process whenever it is a deterministic function of a known coprocess
APA, Harvard, Vancouver, ISO, and other styles
39

Otari, Suzan. "Optimisation des procédures de tests pour simulation de transport des systèmes d'emballage, à partir de l'analyse statistique et fréquentielle du signal vibratoire excitateur." Thesis, Reims, 2011. http://www.theses.fr/2011REIMS034.

Full text
Abstract:
Parmi les tests utilisés dans un plan de qualification destiné à qualifier un emballage ou un système d’emballage pour résister pendant le transport, l’essai en vibrations aléatoires est un moyen efficace pour reproduire les effets mécaniques vibratoires dus au transport. La méthode habituelle s’intéresse uniquement à la répartition fréquentielle du signal en utilisant la densité spectrale de puissance (PSD) et la répartition statistique des niveaux du signal est complètement négligée.Dans ce travail nous avons proposé une loi de distribution de ces niveaux d’accélération qui identifie et caractérise statistiquement le signal vibratoire. L’enregistrement en continu du signal d’accélération tout au long d’un trajet a permis de montrer que cette distribution statistique n’est pas une gaussienne mais une gaussienne modifiée dont les paramètres sont estimés et discutés. Par suite, il est possible de caractériser la sévérité d’un trajet par une comparaison avec la distribution gaussienne qui a la même valeur efficace. Ce modèle retenu nous permet de le comparer aux autres signaux actuellement utilisés pour simuler de tels trajets. L’objectif étant à terme de proposer une méthode alternative de pilotage sur certains systèmes de vibrations (chapitre VI).En générale on utilise un enregistrement partiel du signal vibratoire afin de simuler ses effets mécanique en laboratoire de test sans connaître les conséquences d’un tel mode d’enregistrement sur les caractéristiques du signal étudié. Au cours de ce travail (chapitre 3 et 4) l’effet d’enregistrement partiel du signal est étudié sur les caractéristiques statistiques et fréquentielles de celui-ci. Nous avons montré que lors d’un trajet routier en France 10% du temps total du trajet est représentatif de sa totalité. Si l’enregistrement est effectué avec des taux inférieurs à 10%, nous somme capables d’estimer l’erreur introduite sur la distribution des valeurs du signal et aussi sur le niveau de le PSD. Ainsi cette erreur peut être corrigée au moment de la simulation en laboratoire.Enfin nous avons proposé une méthode alternative pour simuler le signal non-stationnaire et non-gaussien par un système de vibration habituellement utilisé pour cet effet qui consiste à une séquence des signaux gaussiens. Cette méthode a été proposée en vu des moyens et matériels que dispose la société Metropack et leur permet de simuler des effets vibratoires à la façon la plus proche de la réalité du transport
Several tests are used to qualify a packaging or a packaging system aimed for transportation. This is called qualification plan. Random vibration tests are an efficient way to simulate the mechanical vibratory effects caused by transportation. The usual method is only concerned with the frequency distribution pattern of the signal using the average power spectral density (PSD) but statistical distribution of levels is totally ignored.In this work we have proposed a statistical model based on analyse of instantaneous acceleration levels of road transport, which identify and characterise the vibration signal. Continuous recording of acceleration signal all along the journey permits confirmation that this statistical distribution is not a Gaussian distribution but a modified Gaussian distribution, for which parameters are estimated and discussed. Therefore, it is possible to evaluate the transport severity by working out the appearance probability of acceleration levels greater than a fixed threshold and also the difference between the experimental distribution and the Gaussian distribution with the same rms value. This model is used to correcting the way of simulation in a test laboratory (chapter 5).Usually to recreate the mechanical effects of a vibration signal in the test laboratory, we use a partial recording of this signal without any adequate attention on effects of the recording parameters on characteristics of signal recorded in this way. In this work (chapter 3 and 4), the effects of partial recording is studied on statistical and frequency characteristics of acceleration signal. We have shown that for a road transport in France only 10% of the total duration of a journey must be taken to represent the whole journey. If the recording is performed with rates below 10%, we are able to estimate the error introduced on the distribution of signal and also on the level of the PSD. So this error can be corrected when the journey is simulated in laboratory.Finally we have proposed an alternative method for simulating the non-stationary and non-Gaussian signal with a typically used vibration system for this purpose which consists of a sequence of Gaussian signals. This method was proposed considering the means and materials available at company (Metropack) and enables them to simulate vibration effects in the most realistic way
APA, Harvard, Vancouver, ISO, and other styles
40

Tessier, Maxime. "Étude de la performance d’un test d’association génétique pour des données familiales de survie en présence d’un biais de sélection." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66872.

Full text
Abstract:
Dans Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), un test d’association entre un ensemble de variants génétiques et des phénotypes censurées en présence de dépendance familiale est proposé. Ce test a été implémenté dans une librairie R nommée gyriq. Dans ce mémoire de maîtrise, nous évaluons par simulations la performance de ce test en présence d’un biais de sélection dû au protocole de collecte de données. En effet, dans plusieurs situations, les données médicales d’une famille sont considérées si et seulement si un membre particulier de cette famille, appelé proband, est diagnostiqué de l’évènement d’intérêt au moment de son examen médical. Nous développons plusieurs stratégies pour générer des données biaisées selon ce protocole. Nous examinons l’erreur de type 1 et la puissance du test d’association avec de telles données, en présence d’un ou plusieurs proband et lorsque les proportions d’échantillonnage conservent seulement les familles dont les probands ont développé l’évènement d’intérêt ou lorsqu’on conserve une proportion de cas où les probands n’ont pas eu l’évènement d’intérêt. Nous concluons que le test demeure valide en présence d’un biais de sélection mais que la puissance est réduite dans cette situation. De plus, le test n’est pas valide lorsque l’on inclut des familles où les probands n’ont pas développé l’évènement d’intérêt.
In Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), an association test between a group of genetic variants and censored phenotypes in presence of intrafamilial correlation is proposed. This test was implemented in a R package named gyriq. In this master’s thesis,we evaluate, with simulations, the performance of this test in presence of a sampling bias which stems from the data collection protocol. Indeed, in many situations, medical data from a family are considered if and only if a particular member of this family, called proband, is diagnosed with the event of interest during his medical exam. We develop multiple strategies to generate biased data according to such data collection protocol. We examine type 1 error and power of the association test in presence of such data, in the cases where there are 1 or more probands and when we sample only families where the probands have the event of interest or when we also sample a small proportion of families where the event has not occured for the probands. We conclude that the association test remains valid in presence of a selection bias but that the test power is diminished. Furthermore, the test is not valid when we include families where the event of interest has not occured for the probands.
APA, Harvard, Vancouver, ISO, and other styles
41

El, bouch Sara. "Un test de normalité pour les séries temporelles multivariées, une application en sismologie." Electronic Thesis or Diss., Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALT112.

Full text
Abstract:
La présente thèse porte sur l'analyse des séries temporelles. La croissance actuelle de l'intérêt pour les réseaux de capteurs et notre capacité à enregistrer simultanément des séries temporelles représentant les fluctuations de nombreuses quantités physiques, conduit naturellement à considérer des processus d-dimensionnels. Des outils adaptés sont très sollicités pour extraire des connaissances à partir de la quantité en forte croissance des données. Un nombre tout aussi explosif de nouveaux modèles est développé pour répondre à ce besoin. Des efforts considérables sont constamment déployés pour développer des méthodes efficaces d'un point de vue théorique et pratique.La détection des changements est un problème interdisciplinaire de longue date, à la frontière des statistiques et des pratiques de l'apprentissage satistique. Nous nous intéressons à la détection d'événements rares, brefs et oscillants qui apparaissent comme non-gaussiens dans des données enregistrées simultanément sur un réseau de capteurs. Ce travail décrit un détecteur séquentiel pour des séries temporelles colorées non gaussiennes noyées dans un bruit gaussien.À cette fin, nous explorons des outils à la frontière des méthodes de détection et estimation et des pratiques d'apprentissage statistique pertinentes pour l'analyse des séries temporelles.Nos principales contributions consistent à dériver la difficile (mais pertinente) distribution limite du Kurtosis de Mardia pour les séries temporelles bivariées, puis à étendre les résultats au cas général multivarié au moyen de projections aléatoires bivariées. Les résultats proposés sont traduits en un détecteur séquentiel opérationnel. Ses performances sont testées sur des copules colorées, des données synthétiques et réelles. Le bon pouvoir de détection du détecteur bivarié est confirmé par des expériences numériques.Notre travail est également ancré dans une application en sismologie, donc notre détecteur est fusionné avec ce cadre et appliqué aux sismogrammes enregistrés sur des capteurs à trois axes, et des réseaux de capteurs
This thesis is concerned with time-series analysis. The present growth of interest in sensor networks and our ability to simultaneously record time series representing the fluctuations of numerous physical quantities, naturally leads to consider d-dimensional processes. Adapted tools for the extraction of knowledge from the ever increasing amount of recorded time-series are very much solicited. An equally exploding number of new models is developed as a response to the demand and considerable effort is put to developing efficient methods from theoretical and practical viewpoints.Change detection is a longstanding and interdisciplinary problem at the frontier of statistics and Machine Learning practices. In particular, we are interested in the detection of rare, brief and oscillating events that appear as non-Gaussian in data recorded simultaneously on sensors. This work describes a sequential detector for non-Gaussian colored time-series embedded in Gaussian noise.To this end, we explore tools at the frontier of estimation and detection and Machine Learning practices relevant to time-series analysis.Our major contributions consist of deriving the challenging (but relevant) limiting distribution of Mardia's Kurtosis for bivariate time-series, then extending the findings to the general multivariate case by means of random projections. The proposed results are translated to an operational sequential detector. Its performances are tested on colored copula, synthetic and real data. The good detection power of the bivariate detector is confirmed by computer experiments.Our work is also adjacent to applications in seismology, therefore our detector is merged with this framework and applied to seismograms recorded on three-axis sensors, and arrays of sensors
APA, Harvard, Vancouver, ISO, and other styles
42

Nedelec, Thomas. "Apprentissage statistique contre des agents stratégiques et non-stratégiques, avec application à la théorie des enchères." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN070.

Full text
Abstract:
Le fil directeur de cette thèse est l'étude de mécanismes de décision automatique utilisant des données recueillies en interagissant avec des agents stratégiques ou non-stratégiques. Dans la première partie, nous nous intéressons à l'un des problèmes fondateur de la théorie des mécanismes d'incitation, l'apprentissage de l'enchère maximisant le revenu du vendeur. Cette théorie suppose l'existence d'une distribution de valeur qui permet au vendeur d'optimiser son mécanisme. Pour estimer cette distribution de valeur, les vendeurs utilisent en pratique pour la plupart la distribution des enchères passées des différents acheteurs. En considérant cette hypothèse, nous prouvons qu'il existe des stratégie simples qui permettent aux acheteurs d'augmenter très fortement leur utilité si le vendeur utilise ses enchères passées pour optimiser son mécanisme. Nous commençons par une étude détaillée des principaux résultats de la littérature des enchères. Nous introduisons une forme variationnelle qui permet à la fois de calculer analytiquement des équilibres de Nash mais aussi de mettre en place des méthodes numériques. Nous prouvons que notre approche est robuste par rapport au nombre d'exemples accessibles au vendeur et à une connaissance partielle de la distribution de la compétition. Notre approche numérique nous permet de considérer d'autres configurations plus complexes comme les enchères simultanées de plusieurs objets. Nos travaux sont une nouvelle contribution à l'ensemble des recherches récentes qui s'intéressent à comment certains résultats à la frontière entre la théorie des jeux et l'économie doivent être repensés au moment où des algorithmes d'apprentissage statistique sont utilisés pour exploiter la masse de données disponibles sur la plupart des grandes plateformes internet. Dans la seconde partie, indépendante de la première, nous nous intéressons à ce qu'il est possible de faire pour un agent qui a accès à des données qui n'ont pas été manipulées par un agent stratégique, comme dans un essai clinique par exemple. Nous introduisons un nouvel algorithme qui permet d'arbitrer entre la longueur et le coût d'un A/B test ou de toute expérimentation statistique. Lorsque l'expérimentateur a accès à des données récoltées de façon aléatoire, il est aussi capable de faire des raisonnements contrefactuels. Nous étudions les différents estimateurs qui permettent de faire ce type de raisonnement et proposons un nouvel estimateur plus adapté à l'étude des systèmes de recommandations. Cette seconde partie se concentre sur certains des principaux outils statistiques aujourd'hui utilisés pour mettre en place des systèmes automatisés de prises de décisions
The common thread of this manuscript is the study of some of the main automatic decision processes using data provided by either strategic or non-strategic agents. In the first part of the manuscript, we study the learning of revenue-maximizing auctions on data provided by the bidders. We first introduce this framework by a detailed overview of the classical results of the auction literature. We prove that if one bidder is aware that his bid distribution is used in order to optimize the seller's revenue, he can take advantage of this data-driven mechanism and increase his utility. To do so, we introduce a simple and generic variational approach to design novel bidding strategies. This strategy works with general value distributions, with asymmetric bidders and for different revenue-maximizing mechanisms. Furthermore, it can be made robust to sample approximation errors on the seller part. This results in a large increase in utility for bidders whether they have a full or partial knowledge of their competitors. This approach naturally yields itself to numerical optimization and algorithms for designing the strategies. We show that these algorithms can be extended to tackle more complicated setups such as the multi-item setting, where no analytical solutions are known. We also study the economical consequences of the existence of such shading strategies on recent results on collusion in revenue-maximizing auctions. This represents a new contribution to the recent line of research at the frontier of game theory, economics and statistics showing how the use of modern statistical learning algorithms on the large amount of data available on internet platforms modifies classical economics interactions.In the second part of the manuscript, we study practical decisions processes enabling to take informed decisions when data are provided by non-strategic agents. We focus on the A/B testing setting where an agent needs to choose between two alternatives. We introduce a new algorithm interpolating between two classical objectives of the multi-armed bandit literature: regret minimization and best-arm identification. Finally, we study some of the main counterfactual estimators used by practitioners when they have access to randomized data. We provide a large overview of most of these estimators, exhibit some of their theoretical properties, their interest in practice and some of their main limitations. This second part provides a large overview of practical statistical tools that can be be used in modern industrial applications
APA, Harvard, Vancouver, ISO, and other styles
43

Toupin, Marie-Hélène. "La copule khi-carré et son utilisation en statistique spatiale et pour la modélisation de données multidimensionnelles." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27977.

Full text
Abstract:
Cette thèse étudie les propriétés des copules appartenant à la famille khi-carré. Il s’agit d’une généralisation des copules normales multidimensionnelles obtenue en élevant au carré les composantes d’un vecteur de variables aléatoires normales. Ces copules sont indicées par une matrice de corrélation et par un paramètre de forme. Cette thèse montre comment cette famille de copules peut être utilisée pour faire de l’interpolation spatiale et pour modéliser des données multidimensionnelles. Dans un premier temps, l’utilité de cette classe de structures de dépendance est démontrée par le biais d’une application en statistique spatiale. Un problème important dans ce contexte est de prévoir la valeur d’un champ aléatoire stationnaire en une position où il n’a pas été observé. Cette thèse montre comment construire de telles prévisions à l’aide de modèles spatiaux basés sur les copules. L’accent est mis sur l’utilisation de la famille des copules khi-carré dans ce contexte. Il faut d’abord supposer que la matrice de corrélation a une forme paramétrique standard, telle celle de Matérn, indicée par un paramètre inconnu associé à la force de l’association spatiale. Ce paramètre est d’abord estimé à l’aide d’une pseudo-vraisemblance composite construite à partir des lois bidimensionnelles des données observées. Ensuite, une méthode d’interpolation spatiale utilisant les rangs des observations est suggérée afin d’approximer la meilleure prévision du champ aléatoire à une position non observée. Dans un deuxième temps, les propriétés fondamentales des copules khi-carré sont étudiées en détail. Cette famille de copules permet une grande flexibilité quant à la modélisation de données multidimensionnelles. Dans le cas bivarié, ces copules s’adaptent à de la dépendance autant symétrique qu’asymétrique. En dimension plus grande, le paramètre de forme contrôle le degré d’asymétrie radiale des distributions marginales bidimensionnelles. Des procédures d’estimation de la matrice de corrélation et du paramètre de forme sont comparées dans le cas de répétitions indépendantes et identiquement distribuées. Enfin, des formules de l’espérance conditionnelle pour la meilleure prévision dans un contexte spatiale sont établies. Finalement, des tests d’adéquation basés sur des moments pour la famille des copules khi-carré sont développés. Ces nouveaux tests peuvent être appliqués à un ensemble de données de n’importe quelle dimension. Ces procédures reposent sur deux mesures d’association basées sur les rangs des observations ce qui évite d’avoir à spécifier les lois marginales. Il est démontré que le comportement conjoint de ces deux mesures est asymptotiquement normal. L’efficacité des nouvelles procédures d’adéquation est démontrée via une étude de simulations et est comparée à un test d’adéquation classique basé sur la copule empirique.
This thesis studies the properties of the family of chi-square copulas. This is a generalization of the multidimensional normal copulas obtained by squaring the components of normal random vector. These copulas are indexed by a correlation matrix and by a shape parameter. This thesis shows how this family can be used to perform spatial interpolation and to model multidimensional data. First, the usefulness of this class of dependence structures is demonstrated with an application in spatial statistics. An important problem in that context is to predict the value of a stationary random field at a position where it has not been observed. This thesis shows how to construct such predictions using spatial models based on copulas. One focusses on the use of the family of chi-square copulas in that context. One must first assumes that the correlation matrix has a standard parametric form, such as that of Matérn, indexed by an unknown parameter associated with the force of the spatial association. This parameter is first estimated using a composite pseudo-likelihood constructed from the bivariate distributions of the observed data. Then, a spatial interpolation method using the ranks of the observations is suggested to approximate the best prediction of the random field at an unobserved position under a chi-square copula. In a second work, the fundamental properties of the chi-square copulas are studied in detail. This family allows a lot of flexibility to model multidimensional data. In the bivariate case, this family is adapted to symmetric and asymmetric dependence structures. In larger dimensions, the shape parameter controls the degree of radial asymmetry of the two-dimensional marginal distributions. Parameter estimation procedures of the correlation matrix and of the shape parameter are compared under independent and identically distributed repetitions. Finally, the formulas of the conditional expectation for the best prediction in a spatial context are established. Goodness-of-fit tests for the family of chi-square copulas are then developed. These new tests can be applied to data in any dimension. These procedures are based on two association measures based on the ranks of the observations, which avoids having to specify the marginal distributions. It is shown that the joint behavior of these two measures is asymptotically normal. The efficiency of the new goodness-of-fit procedures is demonstrated through a simulation study and is compared to a classical goodness-of-fit test based on the empirical copula.
APA, Harvard, Vancouver, ISO, and other styles
44

Petit, Jean-Claude. "Contribution à l'étude des statistiques non paramétriques : Existence et caractérisation d'évènements libres relativement à une famille de lois de probabilité et applications." Nancy 1, 1988. http://www.theses.fr/1988NAN10054.

Full text
Abstract:
Cette thèse traite de l'existence d'éléments d'une tribu de type dénombrable libres vis-à-vis d'une famille dominée de lois de probabilité de type non paramétrique. Ces éléments sont caractérisés sous l'hypothèse de quasi-complétude de la sous-tribu exhaustive minimale. Dans une deuxième partie, une contribution à la réciproque du théorème de Basu est établie. Enfin, la théorie proposée, fondée sur la théorie des mesures vectorielles, permet une généralisation du lemme de Neymann et Pearson
APA, Harvard, Vancouver, ISO, and other styles
45

Collignon, Olivier. "Recherche statistique de biomarqueurs du cancer et de l'allergie à l'arachide." Phd thesis, Nancy 1, 2009. http://tel.archives-ouvertes.fr/tel-00430177.

Full text
Abstract:
La première partie de la thèse traite de la recherche de biomarqueurs du cancer. Lors de la transcription, il apparaît que certains nucléotides peuvent être remplacés par un autre nucléotide. On s'intéresse alors à la comparaison des probabilités de survenue de ces infidélités de transcription dans des ARNm cancéreux et dans des ARNm sains. Pour cela, une procédure de tests multiples menée sur les positions des séquences de référence de 17 gènes est réalisée via les EST (Expressed Sequence Tag). On constate alors que ces erreurs de transcription sont majoritairement plus fréquentes dans les tissus cancéreux que dans les tissus sains. Ce phénomène conduirait ainsi à la production de protéines dites aberrantes, dont la mesure permettrait par la suite de détecter les patients atteints de formes précoces de cancer. La deuxième partie de la thèse s'attache à l'étude de l'allergie à l'arachide. Afin de diagnostiquer l'allergie à l'arachide et de mesurer la sévérité des symptômes, un TPO (Test de Provocation Orale) est réalisé en clinique. Le protocole consiste à faire ingérer des doses croissantes d'arachide au patient jusqu'à l'apparition de symptômes objectifs. Le TPO pouvant se révéler dangereux pour le patient, des analyses discriminantes de l'allergie à l'arachide, du score du TPO, du score du premier accident et de la dose réactogène sont menées à partir d'un échantillon de 243 patients, recrutés dans deux centres différents, et sur lesquels sont mesurés 6 dosages immunologiques et 30 tests cutanés. Les facteurs issus d'une Analyse Factorielle Multiple sont également utilisés comme prédicteurs. De plus, un algorithme regroupant simultanément en classes des intervalles comprenant les doses réactogènes et sélectionnant des variables explicatives est proposé, afin de mettre ensuite en compétition des règles de classement. La principale conclusion de cette étude est que les mesures de certains anticorps peuvent apporter de l'information sur l'allergie à l'arachide et sa sévérité, en particulier ceux dirigés contre rAra-h1, rAra-h2 et rAra-h3.
APA, Harvard, Vancouver, ISO, and other styles
46

Bordes, Laurent. "Inférence statistique pour des modèles paramétriques et semi-paramétriques : modèles de l'exponentielle multiple, test du Chi-deux, modèles de vie accélérée." Bordeaux 1, 1996. http://www.theses.fr/1996BOR10649.

Full text
Abstract:
Cette these s'articule autour de trois parties. Dans la premiere partie on applique les procedes classiques de l'estimation sans biais avec variance minimale a une loi parametrique exponentielle multidimensionnelle. On s'interesse plus particulierement aux estimateurs des fonctions de repartition dans diverses situations comme par exemple la censure de type ii. Dans la deuxieme partie on aborde la construction de tests d'ajustement du chi-deux. On propose une statistique de test pour le modele exponentiel evoque ci-dessus ; des simulations illustrent le comportement du test suivant que l'on privilegie les estimateurs du maximum de vraisemblance ou les estimateurs sans biais du minimum de variance. On construit une nouvelle statistique de type chi-deux pour des donnees groupees definies comme etant mal observees. Apres avoir obtenu le comportement asymptotique de la statistique dans le cadre d'une hypothese simple, on en donne une illustration par des simulations et on generalise ces resultats au cas d'hypotheses composites. Cette partie s'acheve par une remarque sur la correction de continuite. Dans la derniere partie de cette these, apres avoir decrit plusieurs modeles semi-parametriques de vie acceleree permettant la prise en compte de variables explicatives et generalisant les modeles classiques de l'analyse de survie, on montre comment obtenir des estimateurs des fonctions de survie associees a un modele dit additif ; enfin, par les techniques mathematiques liees aux processus de comptage on obtient des resultats asymptotiques quant aux comportements des estimateurs, dans le cadre de durees de vie censurees a droite et stratifiees
APA, Harvard, Vancouver, ISO, and other styles
47

Aguila, André. "Contribution à la conception d'un planificateur de test : prise en compte des contraintes de testabilité." Montpellier 2, 1991. http://www.theses.fr/1991MON20289.

Full text
Abstract:
Ce memoire presente l'elaboration de mesures de testabilite adaptee a un outil de planification de test des circuits integres. Cet outil comprend en particulier trois taches: le partitionnement du circuit sous test, la propagation des donnees de test de chaque partition au niveau fonctionnel et l'utilisation de methodes de conception en vue du test si le circuit s'averait non testable. Trois mesures ont ete developpees: une mesre de controlabilite, une mesure d'observabilite et un coefficient de correlation. Apres une presentation de l'etat de l'art du domaine, le cahier des charges de ces mesures est dresse. Puis la mesure de controlabilite est elaboree a partir des concepts d'incompatibilites fonctionnelles. Une methode de calcul statistique est proposee. Ensuite la mesure d'observabilite basee sur la traversee de modules fonctionnels de correlation qui permet de quantifier l'effort a fournir pour traverser un ensemble de modules reconvergents sans perte d'information de test. Enfin l'insertion de ces notions a l'interieur de l'outil de planification de test des detaillee
APA, Harvard, Vancouver, ISO, and other styles
48

Nguyen, Hoai phuong. "Certification de l'intégrité d'images numériques et de l'authenticité." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS007/document.

Full text
Abstract:
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes
Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic
APA, Harvard, Vancouver, ISO, and other styles
49

Sayyareh, Abdolreza. "Test of fit and model selection based on likelihood function." Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003400.

Full text
Abstract:
Notre travail port sur l'inf´erence au sujet de l'AIC (un cas de vraisemblance p`enalis´ee) d'Akaike (1973), o`u comme estimateur de divergence de Kullback-Leibler est intimement reli´ee `a l'estimateur de maximum de vraisemblance. Comme une partie de la statistique inf´erentielle, dans le contexte de test d'hypoth`ese, la divergence de Kullback-Leibler et le lemme de Neyman-Pearson sont deux concepts fondamentaux. Tous les deux sont au sujet du rapports de 11 vraisemblance. Neyman-Pearson est au sujet du taux d'erreur du test du rapport de vraisemblance et la divergence de Kullback-Leibler est l'esp´erance du rapport de log-vraisemblance.
APA, Harvard, Vancouver, ISO, and other styles
50

Fayon, Gaëtan. "Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30284/document.

Full text
Abstract:
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant
Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography