Dissertations / Theses on the topic 'Tests à noyaux'

To see the other types of publications on this topic, follow the link: Tests à noyaux.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Tests à noyaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bounliphone, Wacha. "Tests d’hypothèses statistiquement et algorithmiquement efficaces de similarité et de dépendance." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC002/document.

Full text
Abstract:
Cette thèse présente de nouveaux tests d’hypothèses statistiques efficaces pour la relative similarité et dépendance, et l’estimation de la matrice de précision. La principale méthodologie adoptée dans cette thèse est la classe des estimateurs U-statistiques.Le premier test statistique porte sur les tests de relative similarité appliqués au problème de la sélection de modèles. Les modèles génératifs probabilistes fournissent un cadre puissant pour représenter les données. La sélection de modèles dans ce contexte génératif peut être difficile. Pour résoudre ce problème, nous proposons un nouveau test d’hypothèse non paramétrique de relative similarité et testons si un premier modèle candidat génère un échantillon de données significativement plus proche d’un ensemble de validation de référence.La deuxième test d’hypothèse statistique non paramétrique est pour la relative dépendance. En présence de dépendances multiples, les méthodes existantes ne répondent qu’indirectement à la question de la relative dépendance. Or, savoir si une dépendance est plus forte qu’une autre est important pour la prise de décision. Nous présentons un test statistique qui détermine si une variable dépend beaucoup plus d’une première variable cible ou d’une seconde variable.Enfin, une nouvelle méthode de découverte de structure dans un modèle graphique est proposée. En partant du fait que les zéros d’une matrice de précision représentent les indépendances conditionnelles, nous développons un nouveau test statistique qui estime une borne pour une entrée de la matrice de précision. Les méthodes existantes de découverte de structure font généralement des hypothèses restrictives de distributions gaussiennes ou parcimonieuses qui ne correspondent pas forcément à l’étude de données réelles. Nous introduisons ici un nouveau test utilisant les propriétés des U-statistics appliqués à la matrice de covariance, et en déduisons une borne sur la matrice de précision
The dissertation presents novel statistically and computationally efficient hypothesis tests for relative similarity and dependency, and precision matrix estimation. The key methodology adopted in this thesis is the class of U-statistic estimators. The class of U-statistics results in a minimum-variance unbiased estimation of a parameter.The first part of the thesis focuses on relative similarity tests applied to the problem of model selection. Probabilistic generative models provide a powerful framework for representing data. Model selection in this generative setting can be challenging. To address this issue, we provide a novel non-parametric hypothesis test of relative similarity and test whether a first candidate model generates a data sample significantly closer to a reference validation set.Subsequently, the second part of the thesis focuses on developing a novel non-parametric statistical hypothesis test for relative dependency. Tests of dependence are important tools in statistical analysis, and several canonical tests for the existence of dependence have been developed in the literature. However, the question of whether there exist dependencies is secondary. The determination of whether one dependence is stronger than another is frequently necessary for decision making. We present a statistical test which determine whether one variables is significantly more dependent on a first target variable or a second.Finally, a novel method for structure discovery in a graphical model is proposed. Making use of a result that zeros of a precision matrix can encode conditional independencies, we develop a test that estimates and bounds an entry of the precision matrix. Methods for structure discovery in the literature typically make restrictive distributional (e.g. Gaussian) or sparsity assumptions that may not apply to a data sample of interest. Consequently, we derive a new test that makes use of results for U-statistics and applies them to the covariance matrix, which then implies a bound on the precision matrix
APA, Harvard, Vancouver, ISO, and other styles
2

Kellner, Jérémie. "Gaussian models and kernel methods." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10177/document.

Full text
Abstract:
Les méthodes à noyaux ont été beaucoup utilisées pour transformer un jeu de données initial en les envoyant dans un espace dit « à noyau » ou RKHS, pour ensuite appliquer une procédure statistique sur les données transformées. En particulier, cette approche a été envisagée dans la littérature pour tenter de rendre un modèle probabiliste donné plus juste dans l'espace à noyaux, qu'il s'agisse de mélanges de gaussiennes pour faire de la classification ou d'une simple gaussienne pour de la détection d'anomalie. Ainsi, cette thèse s'intéresse à la pertinence de tels modèles probabilistes dans ces espaces à noyaux. Dans un premier temps, nous nous concentrons sur une famille de noyaux paramétrée - la famille des noyaux radiaux gaussiens - et étudions d'un point de vue théorique la distribution d'une variable aléatoire projetée vers un RKHS correspondant. Nous établissons que la plupart des marginales d'une telle distribution est asymptotiquement proche d'un « scale-mixture » de gaussiennes - autrement dit une gaussienne avec une variance aléatoire - lorsque le paramètre du noyau tend vers l'infini. Une nouvelle méthode de détection d'anomalie utilisant ce résultat théorique est introduite.Dans un second temps, nous introduisons un test d'adéquation basé sur la Maximum Mean Discrepancy pour tester des modèles gaussiens dans un RKHS. En particulier, notre test utilise une procédure de bootstrap paramétrique rapide qui permet d'éviter de ré-estimer les paramètres de la distribution gaussienne à chaque réplication bootstrap
Kernel methods have been extensively used to transform initial datasets by mapping them into a so-called kernel space or RKHS, before applying some statistical procedure onto transformed data. In particular, this kind of approach has been explored in the literature to try and make some prescribed probabilistic model more accurate in the RKHS, for instance Gaussian mixtures for classification or mere Gaussians for outlier detection. Therefore this thesis studies the relevancy of such models in kernel spaces.In a first time, we focus on a family of parameterized kernels - Gaussian RBF kernels - and study theoretically the distribution of an embedded random variable in a corresponding RKHS. We managed to prove that most marginals of such a distribution converge weakly to a so-called ''scale-mixture'' of Gaussians - basically a Gaussian with a random variance - when the parameter of the kernel tends to infinity. This result is used in practice to device a new method for outlier detection.In a second time, we present a one-sample test for normality in an RKHS based on the Maximum Mean Discrepancy. In particular, our test uses a fast parametric bootstrap procedure which circumvents the need for re-estimating Gaussian parameters for each bootstrap replication
APA, Harvard, Vancouver, ISO, and other styles
3

Ozier-Lafontaine, Anthony. "Kernel-based testing and their application to single-cell data." Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0025.

Full text
Abstract:
Les technologies de sequençage en cellule unique mesurent des informations à l’échelle de chaque cellule d’une population. Les données issues de ces technologies présentent de nombreux défis : beaucoup d’observations en grande dimension et souvent parcimonieuses. De nombreuses expériences de biologie consistent à comparer des conditions.L’objet de la thèse est de développer un ensemble d’outils qui compare des échantillons de données issues des technologies de séquençage en cellule unique afin de détecter et décrire les différences qui existent. Pour cela, nous proposons d’appliquer les tests de comparaison de deux échantillons basés sur les méthodes à noyaux existants. Nous proposons de généraliser ces tests à noyaux pour les designs expérimentaux quelconques, ce test s’inspire du test de la trace de Hotelling- Lawley. Nous implémentons pour la première fois ces tests à noyaux dans un packageR et Python nommé ktest, et nos applications sur données simulées et issues d’expériences démontrent leurs performances. L’application de ces méthodes à des données expérimentales permet d’identifier les observations qui expliquent les différences détectées. Enfin, nous proposons une implémentation efficace de ces tests basée sur des factorisations matricielles de type Nyström, ainsi qu’un ensemble d’outils de diagnostic et d’interprétation des résultats pour rendre ces méthodes accessibles et compréhensibles par des nonspécialistes
Single-cell technologies generate data at the single-cell level. They are coumposed of hundreds to thousands of observations (i.e. cells) and tens of thousands of variables (i.e. genes). New methodological challenges arose to fully exploit the potentialities of these complex data. A major statistical challenge is to distinguish biological informationfrom technical noise in order to compare conditions or tissues. This thesis explores the application of kernel testing on single-cell datasets in order to detect and describe the potential differences between compared conditions.To overcome the limitations of existing kernel two-sample tests, we propose a kernel test inspired from the Hotelling-Lawley test that can apply to any experimental design. We implemented these tests in a R and Python package called ktest that is their first useroriented implementation. We demonstrate the performances of kernel testing on simulateddatasets and on various experimental singlecell datasets. The geometrical interpretations of these methods allows to identify the observations leading a detected difference. Finally, we propose a Nyström-based efficient implementationof these kernel tests as well as a range of diagnostic and interpretation tools
APA, Harvard, Vancouver, ISO, and other styles
4

Bouyrie, Mathieu. "Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA032/document.

Full text
Abstract:
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion
In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process
APA, Harvard, Vancouver, ISO, and other styles
5

Massiot, Gaspar. "Quelques Problèmes de Statistique autour des processus de Poisson." Thesis, Rennes, École normale supérieure, 2017. http://www.theses.fr/2017ENSR0006/document.

Full text
Abstract:
L’objectif principal de cette thèse est de développer des méthodologies statistiques adaptées au traitement de données issues de processus stochastiques et plus précisément de processus de Cox.Les problématiques étudiées dans cette thèse sont issues des trois domaines statistiques suivants : les tests non paramétriques, l’estimation non paramétrique à noyaux et l’estimation minimax.Dans un premier temps, nous proposons, dans un cadre fonctionnel, des statistiques de test pour détecter la nature Poissonienne d’un processus de Cox.Nous étudions ensuite le problème de l’estimation minimax de la régression sur un processus de Poisson ponctuel. En se basant sur la décomposition en chaos d’Itô, nous obtenons des vitesses comparables à celles atteintes pour le cas de la régression Lipschitz en dimension finie.Enfin, dans le dernier chapitre de cette thèse, nous présentons un estimateur non-paramétrique de l’intensité d’un processus de Cox lorsque celle-ci est une fonction déterministe d’un co-processus
The main purpose of this thesis is to develop statistical methodologies for stochastic processes data and more precisely Cox process data.The problems considered arise from three different contexts: nonparametric tests, nonparametric kernel estimation and minimax estimation.We first study the statistical test problem of detecting wether a Cox process is Poisson or not.Then, we introduce a semiparametric estimate of the regression over a Poisson point process. Using Itô’s famous chaos expansion for Poisson functionals, we derive asymptotic minimax properties of our estimator.Finally, we introduce a nonparametric estimate of the intensity of a Cox process whenever it is a deterministic function of a known coprocess
APA, Harvard, Vancouver, ISO, and other styles
6

Penin, Rémi. "Evaluation à priori des performances environnementales d'un noyau magnétique de transformateur triphasé sur la base de tests simplifiés." Thesis, Artois, 2014. http://www.theses.fr/2014ARTO0209/document.

Full text
Abstract:
Le transformateur est aujourd’hui l’un des convertisseurs statiques les plus utilisé notamment dans la distribution électrique. Les tôles magnétiques servant à la construction de leurs circuits magnétiques sont devenues de plus en plus performantes permettant une réduction des pertes produites. Néanmoins, les tests normalisés permettant de caractériser les tôles magnétiques ne reflètent pas totalement le comportement énergétique du transformateur. De plus, une autre problématique a gagné en importance durant ces dernières années : le bruit acoustique émis. Malheureusement, il n’y pas encore de lien entre la qualité de la tôle à grains orientés choisie pour construire le circuit magnétique et le bruit acoustiques que va produire celui-ci. L’objectif de cette thèse est de répondre à cette double problématique à partir de tests simplifiés. En effet, de nombreux dispositifs expérimentaux et méthodologies ont été développés tels que la méthode des trois cadres, permettant d’étudier la répartition des pertes fer dans le transformateur, les circuits magnétiques décalés, permettant d’étudier les phénomènes à l’origine des bruit acoustique, et des modèles de transformateurs monophasés et triphasés. De plus, des simulations numériques ont été effectuées afin d’approfondir nos analyses des résultats expérimentaux. L’étude des dispositifs ont permis de mettre en évidence trois paramètres relatifs à la qualité des tôles magnétiques, entrainant des différences de répartition d’induction set donc des différences de répartition de pertes fer, d’une part, et de bruit acoustique dans les transformateurs, d’autre part
The transformer is now a static converter most notably used in electrical distribution. The electrical steel sheet used in the construction of their magnetic circuits have become more efficient to reduce losses occurred. However, standardized tests to characterize the electromagnetic steel do not fully reflect the energy behavior of the transformer. In addition, another issue has gained importance in recent years: the acoustic noise. Unfortunately, there is no link between the quality of grain oriented steel selected to construct the magnetic circuit and acoustic noise that will produce it. The objective of this thesis is to answer this dual problem from simplified test. Indeed, many experimental devices and methodologies have been developed such as the method of three frames, to study the distribution of core losses in the transformer, the magnetic circuits shifted, to study phenomena at the origin of acoustic noise, and models of single and three phase transformers. In addition, numerical simulations were performed to deepen our analysis of the experimental results. The study of the devices have allowed to identify three parameters relating to the quality of grain oriented electrical steel, resulting from differences in the distribution of the flux density and therefore, first, the differences in distribution of core loss and, hand, acoustic noise in transformers
APA, Harvard, Vancouver, ISO, and other styles
7

Fortier, Steven. "Estimation du biais de la copule conditionnelle pour un test d'indépendance conditionnelle." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7518.

Full text
Abstract:
Ce mémoire traite principalement de deux thèmes : l'estimation de la dérivée de la fonction de répartition conditionnelle et la construction d'un test d'indépendance basé sur la copule conditionnelle utilisant notre estimateur. Dans le premier chapitre, on fait une brève introduction aux méthodes d'estimation non paramétriques de la fonction de répartition conditionnelle et de la copule conditionnelle. Par la suite, on présente un estimateur de la dérivée de la fonction de répartition conditionnelle nous permettant d'estimer le biais du processus de copule conditionnelle présenté dans le Chapitre 1. Le troisième chapitre traite du test d'indépendance basé sur la copule conditionnelle utilisant les résultats du deuxième chapitre.
APA, Harvard, Vancouver, ISO, and other styles
8

Chebana, Fateh. "Estimation et tests par des méthodes fonctionnelles : applications aux M-estimateurs et aux tests de Bickel-Rosenblatt." Paris 6, 2003. http://www.theses.fr/2003PA066517.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Nguyen, Van Hanh. "Modèles de mélange semi-paramétriques et applications aux tests multiples." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00987035.

Full text
Abstract:
Dans un contexte de test multiple, nous considérons un modèle de mélange semi-paramétrique avec deux composantes. Une composante est supposée connue et correspond à la distribution des p-valeurs sous hypothèse nulle avec probabilité a priori p. L'autre composante f est nonparamétrique et représente la distribution des p-valeurs sous l'hypothèse alternative. Le problème d'estimer les paramètres p et f du modèle apparaît dans les procédures de contrôle du taux de faux positifs (''false discovery rate'' ou FDR). Dans la première partie de cette dissertation, nous étudions l'estimation de la proportion p. Nous discutons de résultats d'efficacité asymptotique et établissons que deux cas différents arrivent suivant que f s'annule ou non surtout un intervalle non-vide. Dans le premier cas (annulation surtout un intervalle), nous présentons des estimateurs qui convergent \' la vitesse paramétrique, calculons la variance asymptotique optimale et conjecturons qu'aucun estimateur n'est asymptotiquement efficace (i.e atteint la variance asymptotique optimale). Dans le deuxième cas, nous prouvons que le risque quadratique de n'importe quel estimateur ne converge pas à la vitesse paramétrique. Dans la deuxième partie de la dissertation, nous nous concentrons sur l'estimation de la composante inconnue nonparamétrique f dans le mélange, en comptant sur un estimateur préliminaire de p. Nous proposons et étudions les propriétés asymptotiques de deux estimateurs différents pour cette composante inconnue. Le premier estimateur est un estimateur à noyau avec poids aléatoires. Nous établissons une borne supérieure pour son risque quadratique ponctuel, en montrant une vitesse de convergence nonparamétrique classique sur une classe de Holder. Le deuxième estimateur est un estimateur du maximum de vraisemblance régularisée. Il est calculé par un algorithme itératif, pour lequel nous établissons une propriété de décroissance d'un critère. De plus, ces estimateurs sont utilisés dans une procédure de test multiple pour estimer le taux local de faux positifs (''local false discovery rate'' ou lfdr).
APA, Harvard, Vancouver, ISO, and other styles
10

Saumard, Mathieu. "Contribution à l'analyse statistique des données fontionnelles." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
APA, Harvard, Vancouver, ISO, and other styles
11

Bui, Thi Thien Trang. "Modèle de régression pour des données non-Euclidiennes en grande dimension. Application à la classification de taxons en anatomie computationnelle." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0021.

Full text
Abstract:
Dans cette thèse, nous étudions un modèle de régression avec des entrées de type distribution et le problème de test d'hypothèse pour la détection de signaux dans un modèle de régression. Nos modèles ont été appliqués aux données de sensibilité auditive mesurées par otoémissions acoustiques, cette mesure biologique contenant potentiellement des informations annexes sur l'individu (age, sexe, population/espèce).Dans la première partie, un nouveau modèle de régression de distribution pour les distributions de probabilité est introduit. Ce modèle est basé sur un cadre de régression RKHS, dans lequel les noyaux universels sont construits à l'aide de distances de Wasserstein pour les distributions appartenant à l'espace Wasserstein de \Omega, où \Omega est un sous-espace compact de l'espace réel. Nous prouvons la propriété de noyau universel de ces noyaux et utilisons ce cadre pour effectuer des régressions sur des fonctions. Différents modèles de régression sont d'abord comparés à celui proposé sur des données fonctionnelles simulées. Nous appliquons ensuite notre modèle de régression aux réponses de distribution des émissions otoascoutiques évoquées transitoires (TEOAE) et aux prédicteurs réels de l'âge. Dans la deuxième partie, en considérant un modèle de régression, nous abordons la question du test de la nullité de la fonction de régression. Nous proposons tout d'abord une nouvelle procédure de test unique basée sur un noyau symétrique général et une estimation de la variance des observations. Les valeurs critiques correspondantes sont construites pour obtenir des tests non-asymptotiques de niveau \alpha. Nous introduisons ensuite une procédure d'agrégation afin d'éviter le choix complexe du noyau et des paramètres de celui-ci. Les tests multiples vérifient les propriétés non asymptotiques et adaptatives au sens minimax sur plusieurs classes d'alternatives régulières
In this thesis, we study a regression model with distribution entries and the testing hypothesis problem for signal detection in a regression model. We aim to apply these models in hearing sensitivity measured by the transient evoked otoacoustic emissions (TEOAEs) data to improve our knowledge in the auditory investigation. In the first part, a new distribution regression model for probability distributions is introduced. This model is based on a Reproducing Kernel Hilbert Space (RKHS) regression framework, where universal kernels are built using Wasserstein distances for distributions belonging to \Omega) and \Omega is a compact subspace of the real space. We prove the universal kernel property of such kernels and use this setting to perform regressions on functions. Different regression models are first compared with the proposed one on simulated functional data. We then apply our regression model to transient evoked otoascoutic emission (TEOAE) distribution responses and real predictors of the age. This part is a joint work with Loubes, J-M., Risser, L. and Balaresque, P..In the second part, considering a regression model, we address the question of testing the nullity of the regression function. The testing procedure is available when the variance of the observations is unknown and does not depend on any prior information on the alternative. We first propose a single testing procedure based on a general symmetric kernel and an estimation of the variance of the observations. The corresponding critical values are constructed to obtain non asymptotic level \alpha tests. We then introduce an aggregation procedure to avoid the difficult choice of the kernel and of the parameters of the kernel. The multiple tests satisfy non-asymptotic properties and are adaptive in the minimax sense over several classes of regular alternatives
APA, Harvard, Vancouver, ISO, and other styles
12

Delahaye, Pierre. "Etudes et tests préliminaires à une mesure de la corrélation angulaire β-v dans la désintégration du noyau 6He à l'aide d'un piège de Paul." Caen, 2002. http://www.theses.fr/2002CAEN2011.

Full text
Abstract:
Préparation d'une mesure du coefficient de corrélation angulaire β-v, dans la désintégration du noyau 6He, à l'aide d'un piège de Paul. Son principe consiste à étudier la désintégration d'ions radioactifs piégés dans un petit volume, pratiquement au repos, au milieu d'un piège électrique transparent. Les trajectoires des particules émises lors de la désintégration sont alors peu perturbées. La détection en coi͏̈ncidence de l'électron et de l'ion de recul de chaque désintégration permet la mesure de 3 observables : les énergies des particules et leur angle relatif. Le paramètre de corrélation angulaire β-v déduit du spectre de coi͏̈ncidence est sensible à l'existence d'interactions exotiques exclues par la théorie V-A des interactions faibles. Dans le cas de la désintégration du noyau 6He une déviation observée sur la valeur prédite impliquerait l'existence d'interactions de type tensoriel, due à l'échange de leptoquarks, bosons de jauge présents dans de nombreuses extensions du Modèle Standard. Les travaux présentés ici concernent la mise en oeuvre d'un piège de Paul transparent. Les caractéristiques de ce piège ont été testées d'abord avec des ions issus d'un plasma laser (Mo+, Fe+, Al+), puis avec ceux délivrés par une source d'ionisation (4He+) [etc]
APA, Harvard, Vancouver, ISO, and other styles
13

Bissyandé, Tegawendé F. "Contributions à l'Amélioration du Débogage des Services Noyau dans un Système d'Exploitation Monolithique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00808877.

Full text
Abstract:
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dûs aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
APA, Harvard, Vancouver, ISO, and other styles
14

Viracaoundin, Isabelle. "Étude chimique et pharmacologique de Eudistoma bituminis et Cystodytes violatinctus, deux ascidies de Mayotte (océan Indien) : isolement d'alcaloi͏̈des à noyau pyridoacridine : analyse de la fraction lipidique." La Réunion, 2001. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/01_05_Viracaoundin_vol.pdf.

Full text
Abstract:
L'étude chimique de deux ascidies, Eudistoma bituminis et Cystodytes violatinctus (Polycitoridae) provenant de Mayotte (Archipel des Comores, océan Indien) a été entreprise. Plus spécifiquement, l'analyse de la composition en acides gras et en stérols de chaque ascidie ainsi que l'isolement et l'identification de cinq alcaloïdes ont été effectués à l'aide des techniques chromatographiques classiques (CC, CG, CG/MS, CLHP) et spectroscopiques (IR, UV, SM, RMN proton et carbone 13, DEPT, HMQC, HMBC). L'identification d'une quarantaine d'acides gras a été réalisée à l'aide des esters méthyliques et des dérivés pyrrolidides. Une très faible teneur en acides gras polyinsaturés a été décelée dans les deux ascidies de Mayotte, contrairement aux teneurs préalablement détectées dans les ascidies citées dans la littérature. De surcroît, un acide gras saturé inhabituel chez les ascidies, l'acide phytanique, est présent à hauteur de 16,5 % dans E. Bituminis et à l'état de traces dans C. Violatinctus. L'analyse de la composition stérolique a révélé la présence d'une série de stérols analogues delta 0/delta 5 et du rare gorgostérol dans les deux espèces d'ascidies. Cependant, E. Bituminis se distingue par la présence d'une série de stérols delta 5,8 rares, isolés pour la première fois dans des ascidies et représentant 25,8% de la composition stérolique. L'isolement des métabolites secondaires a principalement permis d'identifier cinq alcaloïdes dont l'un d'entre eux, la ségoline C, représente un composé nouvellement identifié. La stéréochimie de ce nouveau composé a été élucidée par dichroïsme circulaire et par calculs de mécanique moléculaire à partir du logiciel PC model. Une série de tests d'activités a été réalisée sur les extraits bruts de ces ascidies ainsi que sur les alcaloïdes isolés. L'étude de l'inhibition de la division cellulaire des œufs d'oursins a tout d'abord été réalisée. Ensuite, des tests de cytotoxicité sur la lignée cancéreuse humaine THP1 in vitro et des tests d'activité antimalarique sur des souches sensibles et résistantes à la chloroquine ont été effectués. Les résultats obtenus s'avèrent prometteurs et permettent d'envisager des tests in vivo sur les molécules isolées. [Résumé de l'auteur]
APA, Harvard, Vancouver, ISO, and other styles
15

Madani, Soffana. "Contributions à l’estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1183/document.

Full text
Abstract:
La répartition des revenus d'une population, la distribution des instants de défaillance d'un matériel et l'évolution des bénéfices des contrats d'assurance vie - étudiées en sciences économiques et de gestion – sont liées a des fonctions continues appartenant à la classe des fonctionnelles de la fonction de répartition. Notre thèse porte sur l'estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion. Dans le premier chapitre, nous proposons des estimateurs polynomiaux locaux dans le cadre i.i.d. de deux fonctionnelles de la fonction de répartition, notées LF et TF , utiles pour produire des estimateurs lisses de la courbe de Lorenz et du temps total de test normalisé (scaled total time on test transform). La méthode d'estimation est décrite dans Abdous, Berlinet et Hengartner (2003) et nous prouvons le bon comportement asymptotique des estimateurs polynomiaux locaux. Jusqu'alors, Gastwirth (1972) et Barlow et Campo (1975) avaient défini des estimateurs continus par morceaux de la courbe de Lorenz et du temps total de test normalisé, ce qui ne respectait pas la propriété de continuité des courbes initiales. Des illustrations sur données simulées et réelles sont proposées. Le second chapitre a pour but de fournir des estimateurs polynomiaux locaux dans le cadre i.i.d. des dérivées successives des fonctionnelles de la fonction de répartition explorées dans le chapitre précédent. A part l'estimation de la dérivée première de la fonction TF qui se traite à l'aide de l'estimation lisse de la fonction de répartition, la méthode d'estimation employée est l'approximation polynomiale locale des fonctionnelles de la fonction de répartition détaillée dans Berlinet et Thomas-Agnan (2004). Divers types de convergence ainsi que la normalité asymptotique sont obtenus, y compris pour la densité et ses dérivées successives. Des simulations apparaissent et sont commentées. Le point de départ du troisième chapitre est l'estimateur de Parzen-Rosenblatt (Rosenblatt (1956), Parzen (1964)) de la densité. Nous améliorons dans un premier temps le biais de l'estimateur de Parzen-Rosenblatt et de ses dérivées successives à l'aide de noyaux d'ordre supérieur (Berlinet (1993)). Nous démontrons ensuite les nouvelles conditions de normalité asymptotique de ces estimateurs. Enfin, nous construisons une méthode de correction des effets de bord pour les estimateurs des dérivées de la densité, grâce aux dérivées d'ordre supérieur. Le dernier chapitre s'intéresse au taux de hasard, qui contrairement aux deux fonctionnelles de la fonction de répartition traitées dans le premier chapitre, n'est pas un rapport de deux fonctionnelles linéaires de la fonction de répartition. Dans le cadre i.i.d., les estimateurs à noyau du taux de hasard et de ses dérivées successives sont construits à partir des estimateurs à noyau de la densité et ses dérivées successives. La normalité asymptotique des premiers estimateurs est logiquement obtenue à partir de celle des seconds. Nous nous plaçons ensuite dans le modèle à intensité multiplicative, un cadre plus général englobant des données censurées et dépendantes. Nous menons la procédure à terme de Ramlau-Hansen (1983) afin d'obtenir les bonnes propriétés asymptotiques des estimateurs du taux de hasard et de ses dérivées successives puis nous tentons d'appliquer l'approximation polynomiale locale dans ce contexte. Le taux d'accumulation du surplus dans le domaine de la participation aux bénéfices pourra alors être estimé non parametriquement puisqu'il dépend des taux de transition (taux de hasard d'un état vers un autre) d'une chaine de Markov (Ramlau-Hansen (1991), Norberg (1999))
The income distribution of a population, the distribution of failure times of a system and the evolution of the surplus in with-profit policies - studied in economics and management - are related to continuous functions belonging to the class of functionals of the distribution function. Our thesis covers the kernel estimation of some functionals of the distribution function with applications in economics and management. In the first chapter, we offer local polynomial estimators in the i.i.d. case of two functionals of the distribution function, written LF and TF , which are useful to produce the smooth estimators of the Lorenz curve and the scaled total time on test transform. The estimation method is described in Abdous, Berlinet and Hengartner (2003) and we prove the good asymptotic behavior of the local polynomial estimators. Until now, Gastwirth (1972) and Barlow and Campo (1975) have defined continuous piecewise estimators of the Lorenz curve and the scaled total time on test transform, which do not respect the continuity of the original curves. Illustrations on simulated and real data are given. The second chapter is intended to provide smooth estimators in the i.i.d. case of the derivatives of the two functionals of the distribution function presented in the last chapter. Apart from the estimation of the first derivative of the function TF with a smooth estimation of the distribution function, the estimation method is the local polynomial approximation of functionals of the distribution function detailed in Berlinet and Thomas-Agnan (2004). Various types of convergence and asymptotic normality are obtained, including the probability density function and its derivatives. Simulations appear and are discussed. The starting point of the third chapter is the Parzen-Rosenblatt estimator (Rosenblatt (1956), Parzen (1964)) of the probability density function. We first improve the bias of this estimator and its derivatives by using higher order kernels (Berlinet (1993)). Then we find the modified conditions for the asymptotic normality of these estimators. Finally, we build a method to remove boundary effects of the estimators of the probability density function and its derivatives, thanks to higher order derivatives. We are interested, in this final chapter, in the hazard rate function which, unlike the two functionals of the distribution function explored in the first chapter, is not a fraction of two linear functionals of the distribution function. In the i.i.d. case, kernel estimators of the hazard rate and its derivatives are produced from the kernel estimators of the probability density function and its derivatives. The asymptotic normality of the first estimators is logically obtained from the second ones. Then, we are placed in the multiplicative intensity model, a more general framework including censored and dependent data. We complete the described method in Ramlau-Hansen (1983) to obtain good asymptotic properties of the estimators of the hazard rate and its derivatives and we try to adopt the local polynomial approximation in this context. The surplus rate in with-profit policies will be nonparametrically estimated as its mathematical expression depends on transition rates (hazard rates from one state to another) in a Markov chain (Ramlau-Hansen (1991), Norberg (1999))
APA, Harvard, Vancouver, ISO, and other styles
16

Chokri, Khalid. "Contributions à l'inférence statistique dans les modèles de régression partiellement linéaires additifs." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066439/document.

Full text
Abstract:
Les modèles de régression paramétrique fournissent de puissants outils pour la modélisation des données lorsque celles-ci s’y prêtent bien. Cependant, ces modèles peuvent être la source d’importants biais lorsqu’ils ne sont pas adéquats. Pour éliminer ces biais de modélisation, des méthodes non paramétriques ont été introduites permettant aux données elles mêmes de construire le modèle. Ces méthodes présentent, dans le cas multivarié, un handicap connu sous l’appellation de fléau de la dimension où la vitesse de convergence des estimateurs est une fonction décroissante de la dimension des covariables. L’idée est alors de combiner une partie linéaire avec une partie non-linéaire, ce qui aurait comme effet de réduire l’impact du fléau de la dimension. Néanmoins l’estimation non-paramétrique de la partie non-linéaire, lorsque celle-ci est multivariée, est soumise à la même contrainte de détérioration de sa vitesse de convergence. Pour pallier ce problème, la réponse adéquate est l’introduction d’une structure additive de la partie non-linéaire de son estimation par des méthodes appropriées. Cela permet alors de définir des modèles de régression partièllement linéaires et additifs. L’objet de la thèse est d’établir des résultats asymptotiques relatifs aux divers paramètres de ce modèle (consistance, vitesses de convergence, normalité asymptotique et loi du logarithme itéré) et de construire aussi des tests d’hypothèses relatives à la structure du modèle, comme l’additivité de la partie non-linéaire, et à ses paramètres
Parametric regression models provide powerful tools for analyzing practical data when the models are correctly specified, but may suffer from large modelling biases when structures of the models are misspecified. As an alternative, nonparametric smoothing methods eases the concerns on modelling biases. However, nonparametric models are hampered by the so-called curse of dimensionality in multivariate settings. One of the methods for attenuating this difficulty is to model covariate effects via a partially linear structure, a combination of linear and nonlinear parts. To reduce the dimension impact in the estimation of the nonlinear part of the partially linear regression model, we introduce an additive structure of this part which induces, finally, a partially linear additive model. Our aim in this work is to establish some limit results pertaining to various parameters of the model (consistency, rate of convergence, asymptotic normality and iterated logarithm law) and to construct some hypotheses testing procedures related to the model structure, as the additivity of the nonlinear part, and to its parameters
APA, Harvard, Vancouver, ISO, and other styles
17

Houvenaghel, Jean-François. "Contrôle cognitif dans la maladie de Parkinson : étude par les tests de fluences verbales et la Simon Task motivée." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1B001.

Full text
Abstract:
La symptomatologie non motrice de la maladie de Parkinson s’accompagne fréquemment d’un défaut de contrôle cognitif. Le contrôle cognitif faisant référence à un ensemble de processus facilitant le traitement de l’information et la production de comportements adaptés, son altération impactera de très nombreuses capacités cognitives. Parmi ces capacités, nous nous intéresserons plus spécifiquement, d’une part, à la production orale de mots évaluée à travers les tests de fluences verbales et, d’autre part, aux processus favorisant la production d’actions intentionnelles en situation motivée comme évaluée par la Simon Task motivée. Par notre première étude nous remettrons en question l’hypothèse d’un défaut de contrôle cognitif comme origine principale de la réduction des performances aux tests de fluences verbales à la suite de la stimulation cérébrale profonde du noyau subthalamique. En effet, nous n’avons pas mis en évidence de relation entre cette altération et une modification de l’activité métabolique des régions frontales supportant le contrôle cognitif, ou une modification des performances à d’autres tests nécessitant un contrôle cognitif efficient. Les travaux suivant, portant sur le contrôle des actions motivées démontrent, d’une part, que la production d’actions guidées, non pas par des tendances d’actions impulsives, mais par des tendances d’actions en accord avec les intentions, est plus ardue lorsqu’une récompense financière est mise en jeu. D’autre part, le traitement de la maladie de Parkinson, aussi bien par dopathérapie que par stimulation cérébrale profonde du noyau sous-thalamique module le fonctionnement des processus impliqués, suggérant un rôle particulier des noyaux gris centraux. Nous discuterons des processus cognitifs et neuronaux impliqués et proposerons des perspectives de recherche aussi bien neuroscientifiques que cliniques
The nonmotor symptoms of Parkinson’s disease frequently include a cognitive control deficit. Cognitive control refers to a set of processes that promote information processing and the production of appropriate behaviours, so its impairment can have an impact on a wide range of cognitive abilities. We focused on just two of these abilities: oral word production, as assessed with phonemic and semantic verbal fluency tests; and cognitive action control in an incentive context, as assessed with a rewarded Simon Task. In our first study, we questioned the hypothesis that the reduction in verbal fluency performances observed following surgery for subthalamic nucleus deep-brain stimulation is mainly due to a cognitive control deficit. Results failed to reveal a relationship between this reduction and either modified metabolic activity in the frontal regions subtending cognitive control or modified performances on other tests requiring efficient cognitive control. In our second and third studies, investigating cognitive action control in an incentive context, we showed that the production of intention-driven actions, as opposed to impulsive ones, is more difficult when a monetary reward is at stake. We also demonstrated that treatment for Parkinson’s disease, whether it takes the form of dopaminergic medication or subthalamic stimulation, modulates the functioning of these processes, suggesting that the basal ganglia have a role in them. We discuss the cognitive and neural processes involved and outline future avenues for both neuroscientific and clinical research
APA, Harvard, Vancouver, ISO, and other styles
18

Dumas, Georges. "Influence de stimulations vibratoires appliquées au crâne et aux muscles cervicaux sur la fonction d’équilibration. Interprétations physiologiques et applications à la pathologie. Développement et validation d’un nouveau test d’exploration vestibulaire : le test de Dumas." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0108/document.

Full text
Abstract:
Le test de vibration osseux vestibulaire se pratique sur un sujet assis en stimulant par un vibreur chaque mastoïde puis le vertex à 100 Hz. Il s’agit d’un test rapide, non invasif, d'exploitation récente de premier niveau utile pour dépister une asymétrie vestibulaire au fauteuil de consultation chez un patient vertigineux qui oriente vers une latéralité lésionnelle. Nous avons pu établir en clinique dans des lésions vestibulaires totales (LUVT), partielles (LUVP), des lésions du tronc cérébral et des malformations labyrinthiques et avec l'aide des découvertes fondamentales chez l'animal (Curthoys) que des stimulations vibratoires osseuses appliquées au crâne ou sur les mastoïdes stimulaient l’ensemble des structures vestibulaires des 2 côtés ; le nystagmus induit (NIV) était la résultante d'une asymétrie des réponses (Weber vestibulaire). Dans les LUVT et les LUVP le NIV bat habituellement du côté sain. Inversement, dans les déhiscences du canal antérieur (DCA) il bat du côté lésé du fait d’une facilitation de la conduction osseuse secondaire à l’existence d’une 3ème fenêtre. Les stimulations des mastoïdes sont habituellement plus efficaces que celles du vertex sauf dans les DCA. Le NIV n'est pas influencé par la compensation vestibulaire et persiste telle une "cicatrice vestibulaire". Ainsi il présente un intérêt médicolégal par exemple en médecine du travail. Ce test utile en cas de test calorique (TC) impossible intéresse les hautes fréquences vestibulaires et complète le HST, le HIT, le TC qui n'intéressent que les moyennes et basses fréquences. Il est plus sensible pour dépister une lésion périphérique que centrale
The skull vibration induced nystagmus test performed with a vibrator applied on vertex and mastoids at frequencies of 30, 60, 100 Hz is a fast, recent, robust bed side examination test which reveals instantaneously a vestibular asymmetry (vibration induced nystagmus or VIN) in dizzy patients and is useful to indicate a lesion side. In clinical practice, results in patients with total unilateral vestibular lesions (TUVL), partial unilateral vestibular lesions (PUVL), brain stem diseases, labyrinthine malformations and results in animal experiments (Curthoys), suggest that bone vibrations applied to vertex or mastoids stimulate all the labyrinthine structures (semi circular canals and otoliths) on both sides at 100 Hz. The vibration induced nystagmus (VIN) is the result of asymmetric responses and is equivalent to a Vestibular Weber Test. In TUVL and PUVL the VIN usually beats toward the intact side and conversely beats toward the lesion side in superior semi-circular canal dehiscences in relation to bone conduction facilitation toward the lesion (third window mechanism). VIN is not modified by vestibular compensation mechanisms and remains permanently as a “vestibular scar”. Since it has been used in occupational medicine as a first level examination test. It is not intrusive and is useful in case of unfeasible caloric test (CT). It addresses vestibular high frequencies and complements HST, HIT and CT which adress middle and low frequencies. It is more sensitive to reveal peripheral than central neurological diseases
APA, Harvard, Vancouver, ISO, and other styles
19

Bissyande, Tegawende. "Contributions for improving debugging of kernel-level services in a monolithic operating system." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821893.

Full text
Abstract:
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dus aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
APA, Harvard, Vancouver, ISO, and other styles
20

Cucala, Lionel. "ESPACEMENTS BIDIMENSIONNELS ET DONNÉES ENTACHÉES D'ERREURS DANS L'ANALYSE DES PROCESSUS PONCTUELS SPATIAUX." Phd thesis, Université des Sciences Sociales - Toulouse I, 2006. http://tel.archives-ouvertes.fr/tel-00135890.

Full text
Abstract:
CETTE THÈSE S'INTÉRESSE À DEUX GRANDES QUESTIONS DES PROCESSUS PONCTUELS SPATIAUX: LES ASPECTS DISTRIBUTIONNELS DES ESPACEMENTS ET L'ESTIMATION DE L'INTENSITÉ D'UN PROCESSUS PONCTUEL BRUITÉ.LA PREMIÈRE PARTIE CONCERNE LA CONSTRUCTION DE TESTS D'HOMOGÉNÉITÉ SPATIALE BASÉS SUR LES ESPACEMENTS. ENSUITE NOUS NOUS INTÉRESSONS À LA RECHERCHE D'AGRÉGATS (ZONES DE FORTE INTENSITÉ) À L'AIDE DE CES MEMES ESPACEMENTS. LA DEUXIÈME QUESTION EST ELLE TRAITÉE PAR L'INTRODUCTION D'UN ESTIMATEUR À NOYAU PRENANT EN COMPTE À LA FOIS L'INCERTITUDE SUR LES LOCALISATIONS DES ÉVÉNEMENTS ET L'OBSERVATION SUR UN DOMAINE LIMITÉ.
APA, Harvard, Vancouver, ISO, and other styles
21

Bey, Anissa. "Test du Modèle Standard à basse énergie :- Mesure précise des rapports d'embranchement de 62Ga- Mesure précise de la durée de vie de 38Ca." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00404413.

Full text
Abstract:
L'étude précise des transitions β de Fermi super-permises 0+ → 0+ offre un outil précieux pour explorer les propriétés de l'interaction faible dans le cadre du Modèle Standard (SM). Collectivement, les forces (ft) mesurées pour ces transitions permettent de vérifier l'hypothèse CVC et contribuent au test le plus rigoureux de l'unitarité de la première ligne de la matrice de mélange des quarks CKM en fournissant l'évaluation la plus précise de l'élément dominant (Vud). Jusqu'à récemment, un apparent défaut d'unitarité a semé le doute sur la validité du SM minimal et a mobilisé un effort considérable afin d'élargir le champ d'étude à d'autres émetteurs de Fermi. Le 62Ga et 38Ca sont parmi des noyaux clés pour mener ces tests de précision au travers de la vérification de la fiabilité des corrections imposées aux valeurs ft expérimentales. La décroissance β de 62Ga a été étudiée auprès du séparateur IGISOL à Jyväskylä, avec un dispositif composé de 3 Clovers EUROBALL pour la détection du rayonnement γ. La mise en évidence de raies γ de très faible intensité (<1‰), au travers de corrélations β-γ et β-γ-γ, a permis de reconstruire partiellement le schéma de niveaux excités dans le 62Zn. Le rapport d'embranchement analogue déduit (B.R.A = 99.893(24) %) est utilisé pour extraire la valeur Ft(62Ga) universelle. Celle-ci s'avère en bon accord avec les 12 valeurs précises connues de la littérature. La compatibilité constatée entre la limite supérieure dressée ici sur le terme (δ1IM) et la prédiction théorique confirme l'importance des corrections de brisure de symétrie d'isospin dans les émetteurs β (A ≥ 62). L'étude de la décroissance de 38Ca a été réalisée auprès de l'installation ISOLDE du CERN. L'utilisation de la fluoration des fragments de réaction, pour isoler chimiquement les isotopes d'intérêt, alliée au piégeage d'ions assisté par REXTRAP et l'analyse TOF, ont permis de s'affranchir totalement du contaminant contraignant 38mK. Pour la première fois, la durée de vie de 38Ca est mesurée avec un échantillon de haute pureté. Le résultat préliminaire établi T1/2(38Ca) = 445.8(10) ms améliore la précision par rapport à l'ancienne valeur d'un facteur proche de 10.
APA, Harvard, Vancouver, ISO, and other styles
22

Bey, Anissa. "Test du Modèle Standard à basse énergie : mesure précise des rapports d’embranchement de 62 Ga : mesure précise de la durée de vie de 38 Ca." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13667/document.

Full text
Abstract:
L’étude précise des transitions ß de Fermi super-permises 0+ ? 0+ offre un outil précieux pour explorer les propriétés de l’interaction faible dans le cadre du Modèle Standard (SM). Collectivement, les forces (ft) mesurées pour ces transitions permettent de vérifier l’hypothèse CVC et contribuent au test le plus rigoureux de l’unitarité de la première ligne de la matrice de mélange des quarks CKM en fournissant l’évaluation la plus précise de l’élément dominant (Vud). Jusqu’à récemment, un apparent défaut d’unitarité a semé le doute sur la validité du SM minimal et a mobilisé un effort considérable afin d’élargir le champ d’étude à d’autres émetteurs de Fermi. Le 62Ga et 38Ca sont parmi des noyaux clés pour mener ces tests de précision au travers de la vérification de la fiabilité des corrections imposées aux valeurs ft expérimentales. La décroissance ß de 62Ga a été étudiée auprès du séparateur IGISOL à Jyväskylä, avec un dispositif composé de 3 Clovers EUROBALL pour la détection du rayonnement ?. La mise en évidence de raies ? de très faible intensité (<1‰), au travers de corrélations ß-? et ß-?-?, a permis de reconstruire partiellement le schéma de niveaux excités dans le 62Zn. Le rapport d’embranchement analogue déduit (B.R.A = 99.893(24) %) est utilisé pour extraire la valeur Ft(62Ga) universelle. Celle-ci s’avère en bon accord avec les 12 valeurs précises connues de la littérature. La compatibilité constatée entre la limite supérieure dressée ici sur le terme (d1IM) et la prédiction théorique confirme l’importance des corrections de brisure de symétrie d'isospin dans les émetteurs ß (A = 62). L’étude de la décroissance de 38Ca a été réalisée auprès de l’installation ISOLDE du CERN. L’utilisation de la fluoration des fragments de réaction, pour isoler chimiquement les isotopes d’intérêt, alliée au piégeage d’ions assisté par REXTRAP et l’analyse TOF, ont permis de s’affranchir totalement du contaminant contraignant 38mK. Pour la première fois, la durée de vie de 38Ca est mesurée avec un échantillon de haute pureté. Le résultat préliminaire établi T1/2(38Ca) = 445.8(10) ms améliore la précision par rapport à l’ancienne valeur d’un facteur proche de 10
Precise measurements of Fermi superallowed 0+? 0+ ß decays provide a powerful tool to study the weak interaction properties in the framework of the Standard Model (SM). Collectively, the comparative half-lives (ƒt) of these transitions allow a sensitive probe of the CVC hypothesis and contribute to the most demanding test of the unitarity of the quarks-mixing CKM matrix top-row, by providing, so far, the most accurate determination of its dominant element (Vud). Until recently, an apparent departure from unity enhanced a doubt on the validity of the minimal SM and thus stimulated a considerable effort in order to extend the study to other Fermi emitters available. The 62Ga and 38Ca are among key nuclei to achieve these precision tests and verify the reliability of the corrections applied to the experimental ƒt-values. The 62Ga ß-decay was investigated at the IGISOL separator in Jyväskylä, with an experimental setup composed of 3 EUROBALL Clovers for ?-ray detection. Very weak intensity (<1‰) ?-rays were identified, via ß-? and ß-?-? correlations, and allowed a partial decay scheme reconstruction in 62Zn. The newly established analog branching-ratio (B.R.A = 99.893(24) %) was used to compute the universal Ft-value (62Ga). The latter turned out to be in good agreement with the 12 well-known cases. Compatibility between the upper limit set here on the term (d1IM) and the theoretical prediction suggests that the isospin-symmetry-breaking correction is indeed large for the heavy (A = 62) ß-emitters. The study of the 38a decay was performed at the CERN- ISOLDE facility. Injection of fluorine into the ion source, in order to chemically select the isotopes of interest, assisted by the REXTRAP Penning trap facility and a TOF analysis, enabled us to eliminate efficiently the troublesome 38mK. For the first time, the 38Ca half-life is measured with a highly purified radioactive sample. The preliminary result obtained, T1/2(38Ca) = 445.8(10) ms, improves the precision on the half-life as determined from previous measurements by a factor close to 10
APA, Harvard, Vancouver, ISO, and other styles
23

Coudret, Raphaël. "Stochastic modelling using large data sets : applications in ecology and genetics." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00865867.

Full text
Abstract:
There are two main parts in this thesis. The first one concerns valvometry, which is here the study of the distance between both parts of the shell of an oyster, over time. The health status of oysters can be characterized using valvometry in order to obtain insights about the quality of their environment. We consider that a renewal process with four states underlies the behaviour of the studied oysters. Such a hidden process can be retrieved from a valvometric signal by assuming that some probability density function linked with this signal, is bimodal. We then compare several estimators which take this assumption into account, including kernel density estimators.In another chapter, we compare several regression approaches, aiming at analysing transcriptomic data. To understand which explanatory variables have an effect on gene expressions, we apply a multiple testing procedure on these data, through the linear model FAMT. The SIR method may find nonlinear relations in such a context. It is however more commonly used when the response variable is univariate. A multivariate version of SIR was then developed. Procedures to measure gene expressions can be expensive. The sample size n of the corresponding datasets is then often small. That is why we also studied SIR when n is less than the number of explanatory variables p.
APA, Harvard, Vancouver, ISO, and other styles
24

Sicard, Pascal. "Nouvelles méthodes de synthèse logique." Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00327269.

Full text
Abstract:
Recherche de nouvelles méthodes de synthèse logique sur différentes cibles technologiques: PLA détaillé libre et PLD de type PAL. Une méthode originale de minimisation deux couches d'un ensemble de fonctions booléennes sur une cible de type PLA libre est étudiée. Une méthode de synthèse sur les réseaux programmables de type PAL, dont les dimensions et les structures sont figées, est aussi proposée
APA, Harvard, Vancouver, ISO, and other styles
25

Jeunesse, Paulien. "Estimation non paramétrique du taux de mort dans un modèle de population générale : Théorie et applications. A new inference strategy for general population mortality tables Nonparametric adaptive inference of birth and death models in a large population limit Nonparametric inference of age-structured models in a large population limit with interactions, immigration and characteristics Nonparametric test of time dependance of age-structured models in a large population limit." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED013.

Full text
Abstract:
L’étude du taux de mortalité dans des modèles de population humaine ou en biologie est le cœur de ce travail. Cette thèse se situe à la frontière de la statistique des processus, de la statistique non-paramétrique et de l’analyse.Dans une première partie, centrée sur une problématique actuarielle, un algorithme est proposé pour estimer les tables de mortalité, utiles en assurance. Cet algorithme se base sur un modèle déterministe de population. Ces nouvelles estimations améliorent les résultats actuels en prenant en compte la dynamique globale de la population. Ainsi les naissances sont incorporées dans le modèle pour calculer le taux de mort. De plus, ces estimations sont mises en lien avec les travaux précédents, assurant ainsi la continuité théorique de notre travail.Dans une deuxième partie, nous nous intéressons à l’estimation du taux de mortalité dans un modèle stochastique de population. Cela nous pousse à utiliser des arguments propres à la statistique des processus et à la statistique non-paramétrique. On trouve alors des estimateurs non-paramétriques adaptatifs dans un cadre anisotrope pour la mortalité et la densité de population, ainsi que des inégalités de concentration non asymptotiques quantifiant la distance entre le modèle stochastique et le modèle déterministe limite utilisé dans la première partie. On montre que ces estimateurs restent optimaux dans un modèle où le taux de mort dépend d’interactions, comme dans le cas de la population logistique.Dans une troisième partie, on considère la réalisation d’un test pour détecter la présence d’interactions dans le taux de mortalité. Ce test permet en réalité de juger de la dépendance temporelle de ce taux. Sous une hypothèse, on montre alors qu’il est possible de détecter la présence d’interactions. Un algorithme pratique est proposé pour réaliser ce test
In this thesis, we study the mortality rate in different population models to apply our results to demography or biology. The mathematical framework includes statistics of process, nonparametric estimations and analysis.In a first part, an algorithm is proposed to estimate the mortality tables. This problematic comes from actuarial science and the aim is to apply our results in the insurance field. This algorithm is founded on a deterministic population model. The new estimates we gets improve the actual results. Its advantage is to take into account the global population dynamics. Thanks to that, births are used in our model to compute the mortality rate. Finally these estimations are linked with the precedent works. This is a point of great importance in the field of actuarial science.In a second part, we are interested in the estimation of the mortality rate in a stochastic population model. We need to use the tools coming from nonparametric estimations and statistics of process to do so. Indeed, the mortality rate is a function of two parameters, the time and the age. We propose minimax optimal and adaptive estimators for the mortality and the population density. We also demonstrate some non asymptotics concentration inequalities. These inequalities quantifiy the deviation between the stochastic process and its deterministic limit we used in the first part. We prove that our estimators are still optimal in a model where the mortality is influenced by interactions. This is for example the case for the logistic population.In a third part, we consider the testing problem to detect the existence of interactions. This test is in fact designed to detect the time dependance of the mortality rate. Under the assumption the time dependance in the mortality rate comes only from the interactions, we can detect the presence of interactions. Finally we propose an algorithm to do this test
APA, Harvard, Vancouver, ISO, and other styles
26

Villermaux, Clotilde. "Modélisation physique et numérique de la convection naturelle dans une couche de fluide de faible rapport d'aspect dans le cadre des études d'accidents graves de réacteurs à eau sous pression." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0028.

Full text
Abstract:
Dans le cadre des etudes des accidents graves de reacteurs nucleaires a eau sous pression, on examine la possibilite de refroidir par noyage de la cuve le magma liquide resultant de la fonte du cur formant un bain en fond de cuve. On s'interesse a la couche de metaux liquides qui constitue la partie superieure de ce bain (l'autre partie est formee d'oxydes liquides degageant une forte puissance thermique). Son confinement et ses proprietes physiques peuvent etre a l'origine d'une concentration de flux de chaleur a la paroi laterale de la cuve, menacant son integrite. Une etude bibliographique des transferts thermiques en convection naturelle souligne l'influence des conditions limites thermiques et de la geometrie (faible rapport d'aspect) de la couche sur la structure de l'ecoulement et la repartition de la chaleur. L'interface inferieure de la couche metallique est constituee d'une croute d'oxydes. Une etude de stabilite thermique conclut a sa perennite, ce qui permet de decoupler la couche metallique du bain d'oxydes. On affine egalement la description des echanges thermiques en surface superieure de la couche metallique, controles par rayonnement avec le reste de la cuve. On etudie ensuite l'effet de la hauteur de la couche sur la concentration de flux thermique. L'analyse des resultats du programme experimental bali-metal est completee par une simulation numerique directe avec le code triou. Un modele simple decrivant la structure de l'ecoulement permet de retrouver globalement les resultats experimentaux. Une modelisation plus fine des mouvements fluides occasionnes dans ce type de couche est ensuite proposee. On realise enfin une simulation numerique des essais experimentaux avec le code de thermohydraulique tolbiac.
APA, Harvard, Vancouver, ISO, and other styles
27

Nedjar, Hacène. "Tests d'indépendance de deux séries chronologiques stationnaires univariées." Thèse, 2004. http://hdl.handle.net/1866/14586.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Poulin, Jennifer M. Sc. "Sur l'étude de la transformation des tests portemanteaux pur séries chronologiques multivariées." Thesis, 2006. http://hdl.handle.net/1866/18182.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Aumont, Étienne. "La relation entre la stratégie de navigation spontanée et la prise de décision et les fonctions exécutives." Thèse, 2018. http://hdl.handle.net/1866/22224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography